<dd id="mmmmm"></dd>
  • <noscript id="mmmmm"><dd id="mmmmm"></dd></noscript>
    <nav id="mmmmm"><sup id="mmmmm"></sup></nav>
  • <tr id="mmmmm"></tr>
  • <nav id="mmmmm"></nav>
    <tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot><tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot>
    <nav id="mmmmm"><ul id="mmmmm"></ul></nav>
  • 羞国产在线拍揄自揄自揄视频,直接看不卡无码免费视频,免费午夜无码片在线观看影,超碰av免费网络

    首頁>要聞 要聞

    霍金:AI恐成人類史上最糟事件 不懂控制后果堪憂

    2017年11月08日 11:02 | 來源:環(huán)球時(shí)報(bào)-環(huán)球網(wǎng)
    分享到: 

    原標(biāo)題:霍金:AI恐成人類史上最糟事件 要懂控制否則后果不堪設(shè)想

    霍金:AI恐成人類史上最糟事件 不懂控制后果堪憂

    【環(huán)球網(wǎng)綜合報(bào)道】英國著名物理學(xué)家史蒂芬.霍金(Stephen Hawking)周一表示,人工智能(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控制AI發(fā)展的方法,否則后果不堪設(shè)想。

    臺灣“中時(shí)電子報(bào)”11月7日援引CNBC消息稱,霍金是在葡萄牙里斯本舉辦的網(wǎng)絡(luò)高峰會(Web Summit)演講時(shí)做出這番評論。

    霍金在演講中談到AI未來發(fā)展的潛力,象是協(xié)助復(fù)原人類對自然世界的破壞、根除貧窮與疾病問題,并“改造”社會每一個(gè)層面,但他也承認(rèn)未來充滿不確定性。

    霍金表示:“除非我們事先做好準(zhǔn)備并避免潛在風(fēng)險(xiǎn),否則AI可能成為人類文明史上最糟的事件。因?yàn)樗鼤砦kU(xiǎn),象是制造致命的自主武器(autonomous weapons),或是成為少數(shù)人壓迫多數(shù)人的工具,亦可能對經(jīng)濟(jì)造成巨大破壞。

    編輯:曾珂

    關(guān)鍵詞:霍金 AI恐成人類史上最糟事件 不懂控制后果堪憂

    更多

    更多

    羞国产在线拍揄自揄自揄视频
    <dd id="mmmmm"></dd>
  • <noscript id="mmmmm"><dd id="mmmmm"></dd></noscript>
    <nav id="mmmmm"><sup id="mmmmm"></sup></nav>
  • <tr id="mmmmm"></tr>
  • <nav id="mmmmm"></nav>
    <tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot><tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot>
    <nav id="mmmmm"><ul id="mmmmm"></ul></nav>