您的位置:首頁(yè) > 資訊 > 行業(yè)動(dòng)態(tài) > 正文

人工智能算法指南

2023-02-20 14:29 性質(zhì):原創(chuàng) 作者:Hu yangbo 來(lái)源:AGV網(wǎng)
免責(zé)聲明:中叉網(wǎng)(www.m21363.cn)尊重合法版權(quán),反對(duì)侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識(shí)產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點(diǎn),與本網(wǎng)無(wú)關(guān)。如有需要?jiǎng)h除,敬請(qǐng)來(lái)電商榷?。?/div>
算法定義了人工智能在處理和分析數(shù)據(jù)時(shí)將使用的規(guī)則、條件和方法。如果你以任何身份使用互聯(lián)網(wǎng),你將不可避免地遇到算法。從谷歌的搜索引擎到Facebook的時(shí)間軸算法,再到幫助金融機(jī)構(gòu)處理交易的系...

算法定義了人工智能在處理和分析數(shù)據(jù)時(shí)將使用的規(guī)則、條件和方法。

如果你以任何身份使用互聯(lián)網(wǎng),你將不可避免地遇到算法。從谷歌的搜索引擎到Facebook的時(shí)間軸算法,再到幫助金融機(jī)構(gòu)處理交易的系統(tǒng),算法是人工智能的基礎(chǔ)。

盡管算法是我們數(shù)字生活的核心,但除了創(chuàng)造它們的人之外,其他人往往不理解。臭名昭著的是,盡管其平臺(tái)支持近40萬(wàn)名全職創(chuàng)作者,但Youtube的算法--它推薦視頻并關(guān)注與用戶興趣相關(guān)的頻道--因其是一個(gè)模糊的黑匣子而聞名,創(chuàng)作者們通過(guò)這個(gè)黑匣子來(lái)獲得財(cái)富和饑荒。

本文將照亮科技行業(yè)的這一基本方面。

什么是算法?

在基本術(shù)語(yǔ)中,算法是一組堅(jiān)實(shí)定義的步驟,需要采取這些步驟以達(dá)到計(jì)劃的結(jié)果。特別是,它被用來(lái)解決數(shù)學(xué)方程。它可以被分解成三個(gè)廣泛的組成部分。

輸入:在問(wèn)題開(kāi)始時(shí)你已經(jīng)知道的信息。

算法:需要按部就班地實(shí)現(xiàn)的序列。

輸出:如果順序中的所有步驟都被完全遵循,那么預(yù)期的結(jié)果。

科技界以外的一個(gè)類似算法的系統(tǒng)的例子是烹飪食譜。你有你的輸入(原料),你有你的算法(需要或多或少準(zhǔn)確遵循的食譜步驟),你有你的輸出(希望可以食用的菜肴)。

當(dāng)我們說(shuō)算法是我們數(shù)字生活的原子結(jié)構(gòu)的一部分時(shí),我們也不是在開(kāi)玩笑。你所使用的任何計(jì)算機(jī)程序都在運(yùn)行多種算法來(lái)執(zhí)行其功能。從你的網(wǎng)絡(luò)瀏覽器到你的文字處理器,再到自3.0版本以來(lái)一直包含在Windows中的微軟紙牌游戲,它們中的每一個(gè)都是依靠算法運(yùn)行的。

算法在人工智能中是如何工作的?

從根本上說(shuō),人工智能(AI)是一個(gè)計(jì)算機(jī)程序。這意味著,像火狐瀏覽器或微軟Word或Zoom或Slack一樣,你遇到的任何人工智能或機(jī)器學(xué)習(xí)(ML)解決方案將從頭開(kāi)始用算法構(gòu)建。

算法在人工智能以及機(jī)器學(xué)習(xí)中的作用是可變的。廣義上講,它們定義了人工智能在處理和分析數(shù)據(jù)時(shí)將使用的規(guī)則、條件和方法。這可以簡(jiǎn)單到定義人工智能處理一張發(fā)票所需的步驟,到讓人工智能在包含數(shù)十萬(wàn)張圖片的數(shù)據(jù)集中過(guò)濾掉有狗的圖片。

機(jī)器學(xué)習(xí)中的算法有助于預(yù)測(cè)輸出,即使給定的是未知的輸入。人工智能算法通過(guò)解決不同類別的問(wèn)題發(fā)揮類似的功能。人工智能算法解決的問(wèn)題類型可以分為三大類。

分類。機(jī)器學(xué)習(xí)的一種類型,用于預(yù)測(cè)一個(gè)項(xiàng)目屬于哪一類,或哪一個(gè)類別。一個(gè)例子是通過(guò)編程讓人工智能區(qū)分垃圾信息和你真正需要的信息。

回歸。機(jī)器學(xué)習(xí)的一種類型,用于根據(jù)一個(gè)物體的功能來(lái)預(yù)測(cè)數(shù)字標(biāo)簽。一個(gè)例子是使用歷史數(shù)據(jù)來(lái)預(yù)測(cè)股票市場(chǎng)的價(jià)格和預(yù)測(cè)。

聚類。機(jī)器學(xué)習(xí)的一種類型,用于根據(jù)物體功能的相似性將其分為不同的組。一個(gè)例子是使用一種算法對(duì)一組金融交易進(jìn)行分類,并挑選出潛在的欺詐行為的實(shí)例。

另見(jiàn)。人工智能是如何通過(guò)人工智能增強(qiáng)改變軟件開(kāi)發(fā)的

人工智能算法的類型

分類算法

下面是一些用于人工智能和機(jī)器學(xué)習(xí)的分類算法的例子。

二元邏輯回歸

二元邏輯回歸可以預(yù)測(cè)一個(gè)二元結(jié)果,如是/否或通過(guò)/失敗。其他形式的邏輯回歸,如多項(xiàng)式回歸,可以預(yù)測(cè)三種或更多的可能結(jié)果。邏輯回歸經(jīng)??梢栽诩膊☆A(yù)測(cè)、欺詐檢測(cè)和流失預(yù)測(cè)等用例中發(fā)現(xiàn),其數(shù)據(jù)集可以被用來(lái)評(píng)估風(fēng)險(xiǎn)。

奈何貝葉斯(Naive Bayes)

奈何貝葉斯是一種概率算法,它將獨(dú)立假設(shè)納入模型,這意味著它的操作假設(shè)是數(shù)據(jù)集中沒(méi)有兩個(gè)測(cè)量值是相互關(guān)聯(lián)或以任何方式相互影響的。這就是它們被稱為 "天真 "的原因。它通常用于文本分析和分類模型,它可以將單詞和短語(yǔ)分類到指定的類別。

K 最近鄰 (k-NN)

雖然有時(shí)也用于解決回歸問(wèn)題,但k-NN最常用于解決分類問(wèn)題。在解決分類問(wèn)題時(shí),它將數(shù)據(jù)點(diǎn)分成多個(gè)類別到一個(gè)平面上,以預(yù)測(cè)新數(shù)據(jù)點(diǎn)的類別標(biāo)簽。新數(shù)據(jù)點(diǎn)根據(jù)平面上最常出現(xiàn)在其周圍的類別標(biāo)簽進(jìn)行新分類。k-NN 也被稱為“惰性學(xué)習(xí)”算法,這意味著它不經(jīng)過(guò)完整的訓(xùn)練步驟,而只是保存訓(xùn)練數(shù)據(jù)集。

決策樹(shù)

作為一種監(jiān)督學(xué)習(xí)算法,決策樹(shù)也可用于分類問(wèn)題或回歸問(wèn)題。之所以稱為“樹(shù)”,是因?yàn)樗哂袑哟谓Y(jié)構(gòu)。從根節(jié)點(diǎn)開(kāi)始,它分支成更小的內(nèi)部節(jié)點(diǎn)或決策節(jié)點(diǎn),在這些節(jié)點(diǎn)中進(jìn)行評(píng)估以生成子集,這些子集由終端節(jié)點(diǎn)或葉節(jié)點(diǎn)表示。

一個(gè)例子是從武術(shù)的根節(jié)點(diǎn)開(kāi)始,然后將其分為具有引人注目的重點(diǎn)的武術(shù)和具有格斗重點(diǎn)的武術(shù)的內(nèi)部節(jié)點(diǎn)。然后,這些內(nèi)部節(jié)點(diǎn)可以拆分為特定武術(shù)的終端節(jié)點(diǎn),例如拳擊、柔術(shù)和泰拳。這些算法非常適合數(shù)據(jù)挖掘和知識(shí)發(fā)現(xiàn)任務(wù),因?yàn)樗鼈円子诮忉尣⑶抑恍枰苌俚臄?shù)據(jù)準(zhǔn)備就可以部署。

隨機(jī)森林

隨機(jī)森林利用多個(gè)決策樹(shù)的輸出來(lái)產(chǎn)生預(yù)測(cè)。與決策樹(shù)一樣,隨機(jī)森林可用于解決分類和回歸問(wèn)題。每棵樹(shù)都由從訓(xùn)練數(shù)據(jù)集中抽取的數(shù)據(jù)樣本組成,該數(shù)據(jù)樣本使用放回抽樣。這為決策樹(shù)增加了隨機(jī)化,即使它們來(lái)自完全相同的數(shù)據(jù)集。

在分類問(wèn)題中,多數(shù)票是由這些隨機(jī)決策樹(shù)的輸出決定的。例如,假設(shè)有 10 個(gè)決策樹(shù)專門用于確定裙子的顏色。三套說(shuō)是藍(lán)色,兩套說(shuō)是黑色,四套說(shuō)是粉色,一套說(shuō)是紅色。這件衣服將被歸類為粉紅色。

隨機(jī)森林是金融機(jī)器學(xué)習(xí)模型的首選算法,因?yàn)樗梢詼p少預(yù)處理和數(shù)據(jù)管理任務(wù)所需的時(shí)間。欺詐檢測(cè)、期權(quán)定價(jià)和客戶信用風(fēng)險(xiǎn)評(píng)估都是其在金融領(lǐng)域的應(yīng)用實(shí)例。隨機(jī)森林算法是Leo Breiman 和 Adele Cutler 的商標(biāo)。

回歸算法

以下是人工智能和機(jī)器學(xué)習(xí)中使用的回歸算法的一些示例。

線性回歸

線性回歸是一種在統(tǒng)計(jì)學(xué)和社會(huì)科學(xué)中都使用的算法,用于定義因變量和自變量之間的線性關(guān)系。這種算法的目標(biāo)是用給定的數(shù)據(jù)點(diǎn)確定一條可能的趨勢(shì)線。在確定廣告支出如何影響收入時(shí),企業(yè)通常會(huì)使用線性回歸。

泊松回歸

泊松回歸是一種回歸,其中始終假設(shè)預(yù)測(cè)變量服從泊松分布。泊松分布是一種概率函數(shù),可以幫助確定給定數(shù)量的事件在特定的固定時(shí)間段內(nèi)發(fā)生的概率。

例如,您可以使用泊松回歸來(lái)確定一個(gè)高中生班級(jí)在 24 小時(shí)內(nèi)解決魔方的可能性有多大。或者,您可以根據(jù)餐廳一周內(nèi)服務(wù)的平均用餐人數(shù)來(lái)預(yù)測(cè)餐廳在特定日期接待更多顧客的可能性。

普通最小二乘 (OLS) 回歸

OLS 回歸是最流行的回歸算法之一,它以序數(shù)值作為輸入來(lái)確定多個(gè)變量之間的線性關(guān)系。該算法在預(yù)測(cè)某項(xiàng)事物在任意范圍內(nèi)排名的可能性時(shí)最有用,例如在 1-10 范圍內(nèi),一款游戲被評(píng)為 7 的可能性有多大。它經(jīng)常用于社會(huì)科學(xué),因?yàn)樵擃I(lǐng)域的調(diào)查經(jīng)常要求參與者按比例評(píng)估某些事物。OLS 回歸也稱為排序?qū)W習(xí)。

套索(最小絕對(duì)選擇和收縮算子)回歸

套索回歸采用 OLS 回歸并在方程中添加一個(gè)懲罰項(xiàng)。這可以幫助您創(chuàng)建比簡(jiǎn)單 OLS 更復(fù)雜的數(shù)據(jù)表示。它還可以使表示更準(zhǔn)確。套索回歸也稱為 L1 正則化。

神經(jīng)網(wǎng)絡(luò)回歸

神經(jīng)網(wǎng)絡(luò)是目前最流行的 AI 和 ML 訓(xùn)練方法之一。顧名思義,它們受到人腦的啟發(fā),并且擅長(zhǎng)處理對(duì)于更常見(jiàn)的機(jī)器學(xué)習(xí)方法來(lái)說(shuō)太大而無(wú)法持續(xù)處理的數(shù)據(jù)集。

神經(jīng)網(wǎng)絡(luò)是一種多功能工具,只要提供適當(dāng)數(shù)量的先驗(yàn)數(shù)據(jù)來(lái)預(yù)測(cè)未來(lái)事件,就可以執(zhí)行回歸分析。例如,您可以向神經(jīng)網(wǎng)絡(luò)提供客戶的網(wǎng)絡(luò)活動(dòng)數(shù)據(jù)和元數(shù)據(jù),以確定客戶不買任何東西就離開(kāi)您的網(wǎng)站的可能性有多大。

聚類算法

以下是人工智能和機(jī)器學(xué)習(xí)中使用的聚類算法的一些示例。

K-均值聚類

k 均值聚類是一種無(wú)監(jiān)督學(xué)習(xí)算法,它采用具有某些特征和與這些特征相關(guān)的值的數(shù)據(jù)集,并將數(shù)據(jù)點(diǎn)分組到多個(gè)集群中?!癒”代表您嘗試將數(shù)據(jù)點(diǎn)分類到的簇?cái)?shù)。K-means 聚類擁有許多可行的用例,包括文檔分類、保險(xiǎn)欺詐檢測(cè)和通話詳細(xì)記錄分析。

均值偏移聚類

均值偏移聚類是一種簡(jiǎn)單、靈活的聚類技術(shù),通過(guò)將點(diǎn)移向數(shù)據(jù)點(diǎn)密度最高的區(qū)域(稱為模式),將數(shù)據(jù)點(diǎn)分配到聚類中。在此設(shè)置中如何定義集群取決于多種因素,例如距離、密度和分布。它也被稱為“模式搜索算法”。均值漂移聚類在圖像處理、計(jì)算機(jī)視覺(jué)、客戶細(xì)分和欺詐檢測(cè)等領(lǐng)域都有用例。

基于密度的噪聲應(yīng)用空間聚類 (DBSCAN)

DBSCAN 在數(shù)據(jù)點(diǎn)密度較低的點(diǎn)將高密度簇彼此分開(kāi)。Netflix 的電影推薦算法使用類似的聚類方法來(lái)確定接下來(lái)向您推薦什么。

例如,如果你觀看了最近的 Netflix 電影“Do Revenge”,該算法會(huì)查看其他也觀看過(guò)“Do Revenge”的用戶,并根據(jù)這些用戶接下來(lái)觀看的內(nèi)容推薦電影和節(jié)目。DBSCAN 擅長(zhǎng)處理數(shù)據(jù)集中的異常值。DBSCAN 的可行用例包括客戶細(xì)分、市場(chǎng)研究和數(shù)據(jù)分析。

使用層次結(jié)構(gòu)的平衡迭代減少和聚類(BIRCH)

BIRCH 是一種常用于處理大型數(shù)據(jù)集的聚類技術(shù)。它可以一次掃描整個(gè)數(shù)據(jù)庫(kù),并專注于數(shù)據(jù)庫(kù)中數(shù)據(jù)點(diǎn)密度高的空間,并提供精確的數(shù)據(jù)摘要。

實(shí)現(xiàn) BIRCH 的一種常見(jiàn)方法是與其他無(wú)法處理大型數(shù)據(jù)集的聚類方法一起使用。在 BIRCH 生成其摘要后,其他聚類方法將運(yùn)行摘要并對(duì)其進(jìn)行聚類。因此,BIRCH 的最佳用例是用于普通聚類方法無(wú)法有效處理的大型數(shù)據(jù)集。

高斯混合模型 (GMM)

與泊松回歸利用泊松分布的概念非常相似,GMM 將數(shù)據(jù)集建模為多個(gè)高斯分布模型的混合體。高斯分布也稱為“正態(tài)分布”,因此,可以直觀地假設(shè)數(shù)據(jù)集的聚類將沿著高斯分布的線分布。

GMM 可用于處理大型數(shù)據(jù)集,因?yàn)樗A袅似娈惛咚鼓P偷脑S多優(yōu)點(diǎn)。GMM 已在語(yǔ)音識(shí)別系統(tǒng)、異常檢測(cè)和股票價(jià)格預(yù)測(cè)中得到應(yīng)用。

網(wǎng)友評(píng)論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞