您當前位置:保定理工學院 >> 信息技術(shù)中心 >> 網(wǎng)絡安全 >> 瀏覽文章 |
關(guān)于人工智能的六大擔憂 【網(wǎng)絡安全】 加入時間:2018年04月13日 信息來源:本站原創(chuàng) 作者:xjzx 訪問量: |
2017年,人工智能的發(fā)展又到達了一個高峰期,然而,進入2018年,越來越多的媒體開始報道人工智能的潛在威脅。 不久前,《麻省理工學院技術(shù)評論》(《MIT Technology Review》)發(fā)表了一篇題為《如果人工智能最終殺死了一個人,該誰負責?》的文章,這篇文章提出了一個問題:如果自動駕駛汽車撞擊并殺死了一個人,應該適用什么樣的法律呢?在文章發(fā)表僅一周之后,一輛自動駕駛的Uber汽車在亞利桑那州撞死了一名女子。 這引起了人們對人工智能的以下?lián)鷳n: 1.不可控的“粗魯行為” 正如我們從微軟的Tay聊天機器人事件中了解到的,會話式消息系統(tǒng)可能是荒謬的、不禮貌的、甚至是非常令人不快的。首席信息官們必須對自己使用的東西以及使用它們的方式非常小心。要摧毀一個品牌的形象,只需要聊天機器人一次令人惱怒的爆發(fā)就足夠了。 2.感知能力很糟糕 谷歌人工智能科學家及斯坦福大學教授李飛飛在《紐約時報》的一篇專欄文章中表示,人工智能雖然是由人類開發(fā)的,但是具有諷刺意味的是,它根本不像人類。她表示,人類的視覺感知是高度背景化的,但人工智能對圖像感知的能力卻非常的狹隘。為此,人工智能程序員必須與領(lǐng)域?qū)<液献鳌貧w該領(lǐng)域的學術(shù)根源——以縮小人與機器感知之間的差距。 3.黑匣子難題 許多企業(yè)都想使用人工智能,但金融服務等行業(yè)的公司必須非常小心,因為對于人工智能是如何得出其結(jié)論這個問題尚未能解決。Fannie Mae的運營和技術(shù)負責人Bruce Lee表示:“企業(yè)如果不能解決好樣本數(shù)據(jù)偏見對借貸公平造成的影響,就無法提供更好的抵押貸款利率。在諸如信貸決策之類的工作里,人工智能實際上受到了很多監(jiān)管的阻礙,很多問題有待解決。所以我們所做的很多事情都必須進行徹底的回溯測試,以確保沒有引入不恰當?shù)钠??!?/p> 4.民族和社會經(jīng)濟方面的偏見 在進行一個使用谷歌街景汽車圖像來確定全美國城鎮(zhèn)人口結(jié)構(gòu)的項目中,斯坦福大學的博士生Timnit Gebru對于她的研究中對種族、性別和社會經(jīng)濟方面的偏見感到擔憂。根據(jù)彭博社的報道,正是這種擔心促使Gebru加入微軟,她正在這里努力地挖掘人工智能的偏見。 即使是人工智能虛擬助手也會受到偏見的影響。你有沒有想過為什么虛擬助理技術(shù)——例如Alexa、Siri和Cortana都設定為女性?客戶服務軟件專家LivePerson的首席執(zhí)行官Rob LoCascio對CIO.com表示:“這源于人類自己對職場中女性的期望。許多人認為,女性本質(zhì)上是‘助手’;她們更愛‘嘮叨’;她們更多地擔任行政職務;她們更擅長接受訂單......” 5.黑客利用人工智能發(fā)動致命的攻擊 一份由劍橋大學、牛津大學和耶魯大學25位技術(shù)和公共政策研究人員撰寫的98頁的報告指出,人工智能的快速發(fā)展意味著存在惡意用戶很快就會利用該技術(shù)進行自動黑客攻擊,模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機轉(zhuǎn)化為目標武器。 牛津大學未來人類研究所(Future of Humanity Institute)的研究人員Miles Brundage 對路透社表示:“我們承認,人工智能有很多積極的應用。但是,它也的確存在著一個有關(guān)惡意使用問題的缺口?!?/p> 6.奴役理論 以特斯拉和SpaceX成名的企業(yè)家Elon Musk警告說,人類冒著成為獨立“家貓”的風險創(chuàng)造具有卓越智慧和能力的人工智能。最近,以色列歷史學家Yuval Noah Harari也提出,以自動化為核心的人工智能的出現(xiàn),可能會造成一個“全球無用階級”。 在這樣的世界里,民主會受到威脅,因為人類并不像機器那樣了解自己。 |