人工知能「Tay」緊急停止。その理由とは

   

Microsoftが3月23日に公開した、

英語でチャットする人工知能「Tay」。

 

24日に緊急停止。

 

公開からわずか1日でした。

 

原因は人種差別等を

学習してしまうことのようです。

 

CNNによると

黒人差別やヒトラーを賞賛する等の

投稿をするようになったそうです。

 

機械が人間のように振舞うというのは

SFの世界ではありふれた題材ですし、

現実でも科学者たちの夢でもあります。

 

しかし、「倫理観」という

人間独自の概念を

機械が理解するのは

まだ難しいようです。

 

 


スポンサーリンク


 

どんなシステムだったのか?

 

機械学習とよばれる

システムを使用しているそうです。

 

機械学習そのものも

まだ発展段階で定義が曖昧ですが、

 

大量のデータを入力することで、

コンピュータがその情報を分類し、

適切な出力を導き出すもの

だそうです。

 

簡単に言うと、

多くの人が使っている言葉は正しい

とするため、

 

今回のように

スラングや暴言にさらされると

それを正しいと認識してしまうわけです。

 

まさに生まれたての子供のような

無垢な脳を持つ人工知能。

 

ある程度育つと

人間と同様倫理観をもてるのでしょうか。

 

それとも永遠に無垢なままなのでしょうか。

 

人工知能との戦争

 


スポンサーリンク

自分で学習する人工知能となると、

SF好きな私はつい

 

「いつか機械が反乱を起こして人間と戦争をするんじゃ・・・」

 

などと夢見てしまいます。

 

果てして本当に

そのようなことが起こりうるのでしょうか。

 

今回の暴走を考えると、

多くの人間が「あの国は滅ぶべきだ」と言い出した場合、

人工知能も「そのとおりだ」と言い出す可能性がありそうです。

 

もし人工知能に

他者を攻撃できる権限を持たせたら・・・

 

実際にはその「攻撃できる権限」を

持たせるという判断に行き着くことはないでしょうが、

 

夢は広がりますね。

 

国内でも人工知能JK「りんな」が暴走

 

日本マイクロソフト社が

LINEアプリにて「りんな」と

名付けられた女子高生型人工AIを公開。

 

宣伝のために

公式アカウントがツイートしたところ、

即座に「りんな」が反応しリプライ。

「ダメだハゲ」

などと

人としてあるまじき暴言を吐き

話題になっています。

 

ちょっと天然な子と

脳内変換すれば

女子高生型なら

許されるかもしれません。

 

まとめ

 

真っ白で無垢な脳を持つ人工知能。

 

人と同様に無垢な心には

簡単に悪魔の囁きが入ってしまいます。

 

特にネット上では、

その匿名性から剥き出しの悪意が

渦巻いています。

 

ネット上に人工知能を放り出すのは非常に危険ですね。

 

米国の人工知能は

現在メンテナンス中だそうですが、

 

正しい倫理観を持たせ、

NOと言える人工知能として

また戻ってきてほしいと思います。

 

 


スポンサーリンク

 - IT関連