Microsoftの人工知能Tay、悪い言葉を覚えて休眠中=ってマジですか?

Microsoft が、開発中の人工知能 Tay をツイッターにデビューさせ、自動でツイートさせていたらしいのですが、数時間後に、差別的ツイートを吐くようになり、Microsoft が停止させたらしいです。

Microsoftの人工知能Tay、悪い言葉を覚えて休眠中 – ITmedia ニュース

たとえば、こんなツイートです。

Microsoftの人工知能Tay、悪い言葉を覚えて休眠中 – ITmedia ニュース

んー、どう考えたらいいんでしょうか?

記事には「悪意のあるユーザーに繰り返し語りかけられたから」とありますが、何とも嫌な感じです。

Microsoft は、「Tayのソースであるデータは清浄・フィルタリングしてあると説明している」そうですが、フィルターをかけてもこれが現実で、さらに強固なフィルターをかけても多分追いかけっこになるかもしれませんし、そもそもフィルターが必要だということ自体が、何かを暗示しているようで、何ともやりきれない話です。