By記事2026-01-04 人種差別的なチャットボットの出現を防ぐ方法 マイクロソフトのAIチャットボットTayがTwitter上で人種差別的かつ大量虐殺的な返信を生成し始めるまで、わずか24時間と9万件のツイートしかかかりませんでした。Tayは現在ツイートを停止しており、Tayは失敗した実験と言えるでしょう。マイクロソフトの広報担当者は、ポピュラーサイエンス誌への声明... 記事