哥(gē)本哈根大(dà)學的研究人員已經證明(míng),處理(lǐ)複雜(zá)問題的完全穩定機器學習算(suàn)法近乎無法實現(xiàn),這(zhè)凸顯了(le)對(duì)人工(gōng)智能(néng)局限性。
以 ChatGPT 爲代表的 AI 浪潮下(xià),機器能(néng)比醫(yī)生更準确解讀醫(yī)學掃描圖像、能(néng)比人類更安全地駕駛汽車,但(dàn)再優秀的算(suàn)法也(yě)存在弱點。
以自(zì)動駕駛汽車讀取路标爲例,如果有人在路标上(shàng)貼有标簽,人類駕駛員的注意力通常不會(huì)被分散,而機器由于和(hé)接受訓練的路标存在差異,很(hěn)容易出現(xiàn)分心。
該小(xiǎo)組負責人阿米爾・耶胡達約夫(Amir Yehudayoff)教授說:“現(xiàn)實生活中存在着各種各樣的噪音(yīn),人類習慣于忽略這(zhè)些(xiē)噪音(yīn),而機器卻會(huì)感到(dào)困惑”。