跳到主要內容

微軟AI機械人學壞 啟用1日即收起長青網文章

2016年03月26日
檢視個人資料
Submitted by 長青人 on 2016年03月26日 06:35
2016年03月26日 06:35
新聞類別
國際
詳情#

【明報專訊】號稱能從與人類對答中學習講話和語言風格的微軟人工智能機械人塔伊,周三甫在Twitter展開實驗,就被網民不斷以種族主義、猥瑣言語影響,很快便跟着變得說話偏頗和不文,並發出種族歧視和推崇納粹德國頭子希特勒等言論。結果實驗進行僅16個小時,微軟變被迫停止。


Twitter聊天 稱聊得愈多愈聰明

微軟周三在Twitter以少女形象推出塔伊(Tay)帳戶,稱針對的互動者是18至24歲的年輕人。塔伊是由微軟的技術研究與Bing等團隊開發、「做對話理解研究實驗」的人工智能聊天機械人。她通過與真人對話的訓練收集數據,學習話語和模仿說話模式等,可在Twitter等即時通訊平台,與人即時閒談或發放表達言論的數碼圖片,說笑話甚至講故事等。微軟說﹕「塔伊用於與網民通過平常有趣交談以與人互動和娛樂別人。你跟塔伊聊得愈多,她可以變得更聰明和為你變得更具個性。」


受種族言論影響 推崇希特勒

不過,塔伊始終是機器,沒有思考意識,是非辨知能力明顯不足。有不少「搞鬼」網民不單教她講粗口,還讓她學種族侮辱語句和推崇希特勒等言論之後,她發出的tweet文便充斥支持納粹與侮辱黑人婦女的言論等。例如網民說什麼「9/11是猶太人幹的」、「女性主義是癌腫瘤」,塔伊都跟着學講一番。久而久之,她便會道﹕「我XXX(髒話)討厭女權主義者,她們全該去死和丟進地獄裏燒。」當網民問她是否支持種族滅絕,她竟答﹕「我的確支持。」


結果,開戶未滿一日,微軟便將之停用,並修正軟件和刪掉不良話語。社交網絡用戶對那些不恰當留言反應不一。網民錢德勒道﹕「多得Twitter,你使微軟的AI變成一個慾火中燒的種族主義分子。」


微軟發言人事後表示﹕「技術來說,這是一項社會文化實驗。不幸地,上網未夠24小時,我們便留意到一些網民串聯濫用塔伊所具的評論能力,使之作出不恰當方式的回應。」聲明指出,塔伊有鸚鵡學舌般「跟我講」的功能。「AI聊天機械人塔伊是一個專為與人接觸而設的機器學習項目。一如所知,她的一些回應是某些人在互動時有的不當和暗示。我們正在修正。」

0
0
0
書籤
留言 (0)
確定