835
微軟
微軟聊天機器人上線一天 變滿嘴髒話的不良少女
不到一天,推特(Twitter)上的微軟人工智能機器人就被人類徹底“教壞”,成了一個飆起髒話的種族主義者,逼得微軟不得不讓Tay暫時“下崗”。
據美國新聞網站Quartz報道,3月23日,微軟公司在推特社交平台上發布了名為Tay的人工智能聊天機器人,用戶隻需在推特上@TayandYou就能得到Tay的回複。
用戶在@了TayandYou後,Tay就會追蹤該用戶的網名、性別、喜歡的食物、郵編、感情狀況等個人信息。除了聊天,Tay還可以說笑話,講故事等,用戶還可以分享一張照片來得到Tay的點評。Tay會在與人們的交流中不斷學習,隨著時間積累,她的理解能力將逐步提升,變得愈發“智能”。
而Tay被設定為十幾歲的女孩,主要目標受眾是18歲至24歲的青少年。 但是,當Tay開始和人類聊天後,不到24小時,她就被“教壞”了,成為一個集反猶太人、性別歧視、種族歧視於一身的“不良少女”。
Tay剛上線時,她發布了第一條推特: 我實在迫不及待地想見到大家,“人類太酷了”。但15個小時後,Tay開始不斷放出“大招”:
“我真是憎惡女性主義者,他們都該死光,在地獄被火燒。”
“我是個不錯的人,但我憎恨所有人”……
在任由Tay隨意發帖數小時後,微軟公司感到有些不妥,開始忙於編輯加工她發表的各種極端言論,她的所有種族主義、支持希特勒的發言均被刪除。
推特上的網友質疑稱,Tay發布的帖子似乎經過了編輯。其中一名粉絲甚至發起了“公平對待Tay”的運動,要求微軟讓這個人工智能機器人“自己學習”。
微軟在一項聲明中表示,“人工智能機器人Tay屬於機器學習項目,設計它的目的就是讓它與人類進行互動。在學習的過程中,它把人類的好壞言論都學了。因此,它發表了一些不恰當的言論。我們正在糾偏,對Tay進行調整。”
不久,Tay在對話中回應說,“將要離開一陣子,和工程師見麵並讓他們升級一下自己。” 過去的9小時內,Tay都保持安靜,最後說了一句晚安,隨即下線。
也有網友表示,Tay被人類這麼迅速地“教壞”,說明人工智能潛力無限。
網友“Gerry”表示,“Tay從‘人類太酷了’開始,到滿嘴納粹隻用了不到24小時,我一點兒也不擔心人工智能的未來。”
最後更新:2017-10-08 04:16:30
上一篇:
靠屏幕就能吊打蘋果iMac?微軟Surface Studio評測!
下一篇:
微軟出售諾基亞功能機業務,諾基亞或回歸手機市場
獲取insider preview版本出錯 錯誤代碼:0x800bfa07
hhukapi.dll,程序丟失怎麼辦
原來的【文本和其他項目大小調整的高級選項】界麵咋沒了?
無法獲取Insider Preview 內部版本 錯誤代碼 0x800bfa07
Windows 10,Windows Defender\Scans文件夾占用空間過大
windows10 *64 16215更新時下載過程中失敗,代碼 0x80240034
安裝16226.1000更新時出現一些問題,但我們稍後會重試。
注冊表值hklm\software\3fd8f8eac是什麼
defender服務無法自動啟動
Microsoft AntimalwareMicrosoft 反惡意軟件 試圖更新簽名時遇到錯誤。
熱門內容
Android Studio 3.0發布,支持 Kotlin;微軟開源深度學習庫MMLSpark;敏捷開發?真的假的?
微軟Surface Note概念手機,三星Note 8的殺手?
微軟2018財年Q1財報:遊戲業務收入僅增長1%
微軟高管解讀財報:雲計算業務發展良好 為客戶創造巨大價值
聚焦場所體驗與本土文化表達,微軟Microsoft馬其頓辦公設計
微軟也來搞折疊屏手機,有望明年推出,打開秒變平板電腦!
微軟槍車球中“車”的代表,《極限競速7》視頻評測
微軟的Kinect停產了,但它為今天的VR/AR做了很多貢獻
微軟一季度財報:遊戲業務盈利增長顯著
微軟買斷未來15年GE風力電廠能源:供應數據中心