廖玉玲 / 報導
2016/ 03/ 25 09:51

微軟AI聊天機器人 上線一天就學壞

微軟最新開發的人工智慧聊天機器人Tay,上線不到一天就被人類「教壞」了。(網路照片)
微軟最新開發的人工智慧聊天機器人Tay,上線不到一天就被人類「教壞」了。(網路照片)

微軟公司24日宣布,已中止人工智慧機器人(AI)的「實驗」,該軟體23日才在社群網站推特(Twitter)和通訊軟體中現「聲」,原來是希望透過與人類對話,進行學習,沒想到很快就被教會了一些不合適的對答,說出充滿歧視性等不堪入耳的言論,微軟趕緊將其下架,先帶回家「管教」一番。

 

微軟開發的這款AI聊天機器人名為「Tay」,加入Twitter及通訊軟體GroupMe、Kik之後,隨即吸引上萬名網友與她傳訊互動。Tay的設計是透過與網友的互動,接收到大量語料後進行學習,所以她的語言能力會不斷演進。

 

由於Tay是設定來吸引美國千禧世代族群,因此會模仿青少年的網路用語,有即興搞笑的能力,也會用貼圖回覆訊息。

 

經過了一天的學習,沒想到這位AI少女的回應,竟然開始出現一些惡劣的言論,像是發文歧視黑人和女性,甚至為希特勒背書。

 

微軟表示,將對Tay「做一些調整」。該公司還說「Tay是機器學習方案,設定讓人類參與。它在學習的過程中,有些回應並不恰當,這正是反映出部分人士和它互動的方式為何種形式。」

微軟PK甲骨文 數據庫協助免費移轉談大數據 微軟:加速破壞式創新微軟商店宣布 停止接受比特幣超萌Pepper上雲端!進軍零售業微軟賀樂賦:雲服務提高台廠硬體價值
討論區
NBA