微软聊天机器人上线一天 变满嘴脏话的不良少女
不到一天,推特(Twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个飙起脏话的种族主义者,逼得微软不得不让Tay暂时“下岗”。
据美国新闻网站Quartz报道,3月23日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人,用户只需在推特上@TayandYou就能得到Tay的回复。
用户在@了TayandYou后,Tay就会追踪该用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,Tay还可以说笑话,讲故事等,用户还可以分享一张照片来得到Tay的点评。Tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。
而Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。 但是,当Tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。
Tay刚上线时,她发布了第一条推特: 我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,Tay开始不断放出“大招”:
“我真是憎恶女性主义者,他们都该死光,在地狱被火烧。”
“我是个不错的人,但我憎恨所有人”……
在任由Tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。
推特上的网友质疑称,Tay发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待Tay”的运动,要求微软让这个人工智能机器人“自己学习”。
微软在一项声明中表示,“人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。”
不久,Tay在对话中回应说,“将要离开一阵子,和工程师见面并让他们升级一下自己。” 过去的9小时内,Tay都保持安静,最后说了一句晚安,随即下线。
也有网友表示,Tay被人类这么迅速地“教坏”,说明人工智能潜力无限。
网友“Gerry”表示,“Tay从‘人类太酷了’开始,到满嘴纳粹只用了不到24小时,我一点儿也不担心人工智能的未来。”
最后更新:2017-10-08 04:16:30
上一篇:
靠屏幕就能吊打苹果iMac?微软Surface Studio评测!
下一篇:
微软出售诺基亚功能机业务,诺基亚或回归手机市场
获取insider preview版本出错 错误代码:0x800bfa07
hhukapi.dll,程序丢失怎么办
原来的【文本和其他项目大小调整的高级选项】界面咋没了?
无法获取Insider Preview 内部版本 错误代码 0x800bfa07
Windows 10,Windows Defender\Scans文件夹占用空间过大
windows10 *64 16215更新时下载过程中失败,代码 0x80240034
安装16226.1000更新时出现一些问题,但我们稍后会重试。
注册表值hklm\software\3fd8f8eac是什么
defender服务无法自动启动
Microsoft AntimalwareMicrosoft 反恶意软件 试图更新签名时遇到错误。
热门内容
Android Studio 3.0发布,支持 Kotlin;微软开源深度学习库MMLSpark;敏捷开发?真的假的?
微软Surface Note概念手机,三星Note 8的杀手?
微软2018财年Q1财报:游戏业务收入仅增长1%
微软高管解读财报:云计算业务发展良好 为客户创造巨大价值
聚焦场所体验与本土文化表达,微软Microsoft马其顿办公设计
微软也来搞折叠屏手机,有望明年推出,打开秒变平板电脑!
微软枪车球中“车”的代表,《极限竞速7》视频评测
微软的Kinect停产了,但它为今天的VR/AR做了很多贡献
微软一季度财报:游戏业务盈利增长显着
微软买断未来15年GE风力电厂能源:供应数据中心