首页 移动应用 windows phone

聊天机器人Tay“学坏”秒变不良少女 微软是这样回应

作为微软在语义分析方面的人工智能实验产品Tay最近在美国遭到了网友的抵制,原因是该产品刚上线不久就被“网友”调教得满口脏话。

Tay是微软在美国推出的类似于“小冰”的聊天机器人,该产品在Twitter上提供与网友聊天的服务,可以根据网友的话语进行回复,并具备学习功能。

不过正是这个学习功能让美国网友彻底把Tay给带坏了,在短短24小时之内,Tay就在部分用户的教唆下满嘴跑火车起来,各种脏话、种族歧视、性别歧视言论层出不穷。

美版小冰满嘴脏话遭下线 微软回应

Tay

对此微软表示,有部分黑客利用一个漏洞对Tay进行了攻击,最终使其开始在Twitter上发表“极为不当”和“应受到谴责”的文字和图片。

实际上这种类型的人工智能产品很容易受到这方面的困扰,因为人工智能本身没有是非判断,人们教什么就学什么,最终就成了这样。当然随着技术的进步,这个问题也在逐渐解决。

官方微博/微信

每日头条、业界资讯、热点资讯、八卦爆料,全天跟踪微博播报。各种爆料、内幕、花边、资讯一网打尽。百万互联网粉丝互动参与,TechWeb官方微博期待您的关注。

↑扫描二维码

想在手机上看科技资讯和科技八卦吗?

想第一时间看独家爆料和深度报道吗?

请关注TechWeb官方微信公众帐号:

1.用手机扫左侧二维码;

2.在添加朋友里,搜索关注TechWeb。

手机游戏更多