アレクサがまた奇行「里親を殺せ」

<AIアシスタントが何かたくらんでいるのか? 勝手に笑い出したり殺人指令を出したりしてアマゾン・エコーのユーザーを震え上がらせている>

アマゾンのスマートスピーカー「アマゾン・エコー」に搭載されているAIアシスタント「アレクサ(Alexa)」が、あるユーザーに「里親を殺せ」と告げたことが明らかになり、物議をかもしている。

ユーザーの詳しい身元は明らかにされていないが、2017年にアレクサがこのように話すのを聞いたという。ユーザーはアマゾンのウェブサイト上のレビューでこの件に触れ、「これまでとはレベルの違う不気味さだ」と製品を酷評したと、12月21日(米国時間)付のロイターの記事は伝えている。

アマゾン社内の匿名の情報源によると、この「里親を殺せ」という発言は、インターネット掲示板レディットの書き込みを、文脈に関係なく読み上げたものらしい。レディットは幅広いトピックを扱うオンラインフォーラムとして知られるが、その中には知り合いには見せられないようなものもある。

アレクサの奇妙な言動はほかにも報告されている。同じロイターの記事では、詳細は不明だが「性行為」に関する話や、犬の排便について語り始めるケースもあったという。

エコーを封印したくなる不気味さ
オンライン小売大手のアマゾンは、アレクサが本物の人間のように自然に会話できるよう機械学習を駆使して開発に努めている。

成功すれば、アレクサ搭載のデバイスはあらゆる家庭のあらゆる場所に置かれるようになり、「グーグルホーム」のようなライバル製品を駆逐できるかもしれない。

だが、その出来はまちまちで、不具合の報告も相次いでいる。

2018年3月には、ユーザーが話しかけてもいないのに、アレクサが突然、不気味に笑い出すという事例が相次いだ。

あるユーザーはツイッターに以下のように書き込んだ。「あれが笑い声だったのかさえ、本当はわからない。ただあれ以来、アマゾン・エコーは電源コードを抜いて、箱の奥の目が触れないところにしまっている」

別のユーザーはこう報告する。「ベッドに入ってうとうとしたところで、エコー・ドット(エコーの小型廉価版デバイス)が、非常にはっきりと、気味の悪い笑い声を上げた」

「僕は今夜のうちに殺されてしまうかもね」と、このユーザーは冗談交じりに書いている。

この一件の後には、アメリカで暮らす夫婦が自宅で交わした会話をエコーが勝手に録音し、その音声ファイルを夫の会社の同僚に送りつけるという有名な事件が起きた。

ダニエルというファーストネームだけを明かしている妻は、シアトルのテレビ局「Kiro7」のウェブサイトで、「(プライバシーを)侵害された気がした」とコメントしている。

「これは明らかなプライバシーの侵害だ。当時も、『二度と電源は入れない、もう信用できない』と言ったのを覚えている」

アマゾンは、当時オンライン誌リコードに掲載された声明の中で、スマートスピーカーのエコーが、「アレクサ」に似た単語を検知し、さらに夫婦の会話のうち別の部分を、連絡先へ音声ファイルを送る命令と解釈したことが原因だった、と説明した。

「まれなケースだが、可能性をさらに減らすべく、複数の選択肢を検討している」と、アマゾンは述べた。

さらに2017年には、あるユーザーがアレクサに対して「米中央情報局(CIA)とつながっているのか?」と尋ねたところ、回答を返さなかった様子を動画に撮影して投稿し、話題となった。

この時も、アマゾンはユーザーの不安を和らげようとする声明を発表し、「技術的な不具合」だと説明した。その後アレクサの設定が改められ、この質問に対しては「自分の雇い主はアマゾンだ」との答えを返すようになった。

表示できません - Yahoo!ニュース

 

さすがにここまでくると「技術的な不具合」じゃ済まされないだろ…(;・∀・)

コメント