羞国产在线拍揄自揄自揄视频,直接看不卡无码免费视频,免费午夜无码片在线观看影,超碰av免费网络

首頁>國企·民企>深·觀察深·觀察

谷歌AI自產(chǎn)“子AI” 性能略勝人類所造

2017年12月07日 09:08 | 來源:科技日報
分享到: 

谷歌AI自產(chǎn)“子AI” 性能略勝人類所造

谷歌公司今年稍早時間宣布,他們的人工智能(AI)系統(tǒng)已能發(fā)明自己的加密算法,還能生成自己的AI。而據(jù)谷歌官方博客及未來主義(Futurism)新聞網(wǎng)近日消息稱,這個由AI創(chuàng)造的“子AI”,性能已打敗人類創(chuàng)造的AI:測試中,名為NASNet的“子AI”系統(tǒng)正確率達到82.7%,比之前公布的同類AI產(chǎn)品的結果高1.2%,系統(tǒng)效率高出4%。

2017年5月,“谷歌大腦”(Google Brain)的研究人員宣布研發(fā)出自動人工智能AutoML,該人工智能可以產(chǎn)生自己的“子AI”系統(tǒng)。日前,他們決定向AutoML發(fā)起迄今為止最大的挑戰(zhàn)——嘗試用AutoML自己創(chuàng)造出的AI,打敗人類設計的AI。

團隊成員使用一種被稱為強化學習的方法,自動化設計機器學習模型。此次,AutoML的“身份”是一個控制器神經(jīng)網(wǎng)絡,為特定任務開發(fā)一個“子AI”。這個新生成的“孩子”名為NASNet,可以實時地在視頻中識別人體、汽車、交通信號燈、手袋、背包等目標。AutoML作為“家長”,會評估“孩子”NASNet的性能,并使用這些信息來改善“子AI”,再將這一過程重復數(shù)千次。

團隊成員在ImageNet(計算機視覺系統(tǒng)識別項目,是目前世界最大的圖像識別數(shù)據(jù)庫)圖像分類和COCO目標識別兩個數(shù)據(jù)集上,對“子AI”NASNet進行了測試。他們表示,這是計算機視覺領域兩個最受認可的大規(guī)模學術數(shù)據(jù)集,其數(shù)量級之龐大使得測試非常嚴峻。

結果,在ImageNet測試中,NASNet在驗證集上的預測準確率達到了82.7%,比之前公布的同類人工智能產(chǎn)品的結果好1.2%,與論文預印網(wǎng)站上報告但未發(fā)表的結果不相上下,系統(tǒng)效率則提高了4%,最大模型的平均精確度為43.1%。團隊成員表示,NASNet將被用于各類應用程序,用戶能通過該AI系統(tǒng)進行圖像分類和對象檢測。

總編輯圈點

機器人能夠造機器人,AI能夠設計AI。想想也沒什么奇怪的,只要目標定義清楚,強大的計算機當然比人腦算得快,遲早會替代人。但這不等于AI可以脫離人自行進步了。因為AI還是被拴在籠子里,偶爾被放進賽道,跑一跑罷了。什么時候AI突發(fā)奇想,為自己設定一個目標,那什么時候它才能跟人相比?,F(xiàn)在還差得遠吶。(記者張夢然)

編輯:劉小源

關鍵詞:谷歌 人類 系統(tǒng)

更多

更多

<dd id="mmmmm"></dd>
  • <noscript id="mmmmm"><dd id="mmmmm"></dd></noscript>
    <nav id="mmmmm"><sup id="mmmmm"></sup></nav>
  • <tr id="mmmmm"></tr>
  • <nav id="mmmmm"></nav>
    <tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot><tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot>
    <nav id="mmmmm"><ul id="mmmmm"></ul></nav>