感謝您選擇瑞茂光學XC3000系產(chǎn)品,瑞茂光學自2012年起為全球用戶提供了高水平的微焦點X射線產(chǎn)品,10年來,感謝您們一直以來的支持!
基于您的AI流程及算法,我們說明如下。
瑞茂光學使用了基于PYTHON 的AI循環(huán)神經(jīng)網(wǎng)絡(luò)算法(RNN),在實際的點料任務(wù)中都非常成功。我們的算法有別其他的AI算法邏輯,在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,可以理解所有輸入和輸出都是獨立的。但是,對于許多任務(wù),這是不合適的。如果要預(yù)測句子中的下一個單詞,最好考慮一下它前面的單詞。
RNN之所以稱為循環(huán),是因為它們對序列的每個元素執(zhí)行相同的任務(wù),并且輸出取決于先前的計算。RNN的另一種解釋:這些網(wǎng)絡(luò)具有“記憶”,考慮了先前的信息。
例如,如果序列是5個單詞的句子,則由5層組成,每個單詞一層。
在RNN中定義計算的公式如下:
x_t-在時間步t輸入。例如,x_1可以是與句子的第二個單詞相對應(yīng)的one-hot向量。s_t是步驟t中的隱藏狀態(tài)。這是網(wǎng)絡(luò)的“內(nèi)存”。s_t作為函數(shù)取決于先前的狀態(tài)和當前輸入x_t:s_t = f(Ux_t + Ws_ {t-1})。函數(shù)f通常是非線性的,例如tanh或ReLU。計算第一個隱藏狀態(tài)所需的s _ {-1}通常初始化為零(零向量)。o_t-在步驟t退出。例如,如果我們要預(yù)測句子中的單詞,則輸出可能是字典中的概率向量。o_t = softmax(Vs_t)圖像描述的生成,與卷積神經(jīng)網(wǎng)絡(luò)一起,RNN被用作模型的一部分,以生成未標記圖像的描述。組合模型將生成的單詞與圖像中的特征相結(jié)合:
最常用的RNN類型是LSTM,它比RNN更好地捕獲(存儲)長期依賴關(guān)系。LSTM與RNN本質(zhì)上相同,只是它們具有不同的計算隱藏狀態(tài)的方式。
LSTM中的memory稱為cells,您可以將其視為接受先前狀態(tài)h_ {t-1}和當前輸入?yún)?shù)x_t作為輸入的黑盒。在內(nèi)部,這些cells決定保存和刪除哪些memory。然后,它們將先前的狀態(tài),當前memory和輸入?yún)?shù)組合在一起。
再一次感謝您的理解和支持!