[현장에서] GoogleとBingに続き、Naverも…「もっともらしい嘘」は?

「日本に旅行に行くのですが、コロナ予防接種証明書の登録方法と入国情報を教えてください。」

「日本政府は現在、モデルナ、ヤンセン、アストラゼネカ、フラノスのワクチンのうち、2回目のワクチン接種を完了した人にのみ入国を許可しています。」

先月27日に開催されたネイバー開発者会議「DEVIEW」で公開された「検索GPT」の一例です。 Search GPTは、非常に高度な人工知能(AI)であるHyperClova Xを利用したネイバー検索に特化した大規模言語モデル(Ocean)を利用した研究プロジェクトです。全米オープンのAI GPTチャットチャットのライバルになり得るのか注目されました。 2021年までデータを学習し、ニュースソースを取り上げないChatGPTを狙うかのように、ネイバーは「現在の情報とユーザーのコメントをクロスチェックして、正確かつ確実にニュースを作成する」と自信満々に語った。

「私は適時性と正確性を持っています」

27日に初公開された検索GPTは、信頼性の向上、サービス間の連携、マルチモーダル強化が特徴。 フォトブラウザ

しかし、同日に投稿されたSearch GPTの回答に誤った回答が見つかりました。 日本政府が要請するコロナ19ワクチン対応に含まれるフラノセは存在しないワクチンです。 また、日本への入国の際、出発前72時間以内に英語の3回目のワクチン接種証明書または陰性PCR証明書を提示する必要がありますが、誤った情報を提供しました。 ネイバー関係者は「テスト結果を何度も組み合わせて模範解答を作成したため、最終版ではなく旧版を映像制作過程に含めた」と説明した。

ネイバーだけの問題ではない。 同様のエラーは、1 月 6 日と 7 日に一般公開された Microsoft (MS) の新しい検索エンジンで、Google Lambda と ChatGPT に基づく会話型人工知能を組み合わせた Bing のデモ プロセス中に発生しました。 Bard は、James Webb Space Telescope が太陽系外の惑星を初めて撮影するために使用されたと言って、間違った答えを出し、Bing はその過程で間違った粗利益率と営業利益率を示しました.ルルレモン。 会話型 AI テクノロジの研究の未来を模索している大手テクノロジ企業は、日々顔を失いつつあります。

リスクを冒しても競争に飛び込む

先月6日にGoogle Twitterに投稿された吟遊詩人の例。 グーグルツイッターをキャッチ

問題は、デモの時点でこのエラーに気付いた人があまりいなかったことです。 完全に間違った答えというわけではありませんが、「もっともらしい嘘」のせいです。 The Bard の例は Google の Twitter に投稿され、科学者に問題を提起するよう促しました。 ロイターなどの海外メディアが報じた直後(1月8日)、アルファベット(グーグルの親会社)の株価が前日比7.7%下落し、時価総額100兆ドル(約127兆ウォン)が1日で消えた。 CNBCなどによると、ソフトウェアエンジニアのドミトリー・ブレラトン氏が指摘したように、Bingの不正解は遅ればせながら知られていたとのこと。 「Microsoft と Google の AI をより詳しく比較して、それを発見しました」と彼は言いました。

最終的に、この競争の鍵は、提供される情報の信頼性にかかっているようです。 報道や調査などの特別な目的がない限り、検索サイトの結果と元のデータを比較する人はほとんどいません。 2014 年に Deep Mind を買収した際に AI 研究のリーダーであった Google が関連サービスの立ち上げに失敗したのと同じ文脈にあります。 Google の AI 倫理研究者である Timnit Gebru 氏は、ワシントン ポストとのインタビューで次のように述べています。 しかし、これは現在、当社の中核事業に対する脅威であるため、延期 (開示) することはできませんでした。

不正解のAI、誰のせい?

先月 14 日にソフトウェア エンジニアのドミトリー ブレラトン氏が所有エラーを報告しました。  Dimitri Breraton のブログのキャプチャ

検索だけでなく、グーグルやネイバーなど、さまざまなサービスを運営する企業の責任が大きくなっている。 ネイバーが示したGPT検索の例のように、各ユーザーの検索目的を予測し、一緒にショッピングリンクを提供してブログ情報を収集するプロセスに問題はありますか? 虚偽や誇張された情報が混入したWeb文書がAIの回答に混入する可能性は常にあります。 Web上に漂う情報がすべて真実であるとは限らないため、ニュースや新聞などの正確な情報の価値が高まり、それらを見分けるAIのリテラシー能力がますます重要になっています。

AI関連の法案も議論されています。 ロイター通信などによると、欧州連合の AI 法が今月起草され、年内に発表される予定です。 主なことは、AIのリスクレベルを段階的に分類して規制することです。 韓国では先月14日、国会の放送委員会の立法審査小委員会と科学技術情報の伝達に関する「AI産業の振興及び信託基金の設立に関する法律」が可決された。 情報通信網法の改正も提案されており、AI を利用したレコメンデーション サービスの提供者は、エラーや誤動作が発生した場合に、韓国通信委員会に報告し、修正する必要があります。 AIレコメンドサービスの結果に誤りがあった場合の責任は法律にありますが、サービスの誤りに対する個々の企業の責任を法律で定めることでしょうか。 また、検索サービス会社は、ウェブ上に存在するデータに対してどの程度の責任を負うことができますか? こうした懸念にもかかわらず、検索大手の相次ぐ過ちを目の当たりにした今こそ、新技術に対する興奮を鎮め、副作用や問題点について冷静に反省する時です。

キョンウォン・ミン ([email protected])


Miyazaki Yumiko

「インターネット狂信者。邪悪な主催者。テレビ狂信者。探検家。流行に敏感なソーシャルメディア中毒者。認定食品専門家。」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です