新しい方法でAI幻覚の検出を発表

今日の生成型AIツール、例えばChatGPTには問題があります。それは、しばしば誤った情報を自信満々に出力することです。

Eulerpool News

今日の生成型人工知能(AI)であるChatGPTなどの継続的な課題は、AIが頻繁に誤った情報を自信を持って主張することにあります。この行動はコンピュータサイエンティストによって「幻覚」と呼ばれ、AIの有用性にとって重大な障害となっています。

幻覚はすでにいくつかの恥ずかしい公共のインシデントを引き起こしています。2月には、エア・カナダがトリビューナルによって、カスタマーサービスのチャットボットが誤って乗客に提供した割引を認めるよう命じられました。

5月に、Googleは新しい検索機能「AIオーバービュー」に変更を加える必要がありました。というのも、ボットが一部のユーザーに石を食べるのは安全だと伝えてしまったのです。

そして、昨年6月には、1人の弁護士が訴状の作成支援にChatGPTを使用したことを認めた後、2人の弁護士が米国の裁判官により5,000ドルの罰金を科されました。このチャットボットは、実際には存在しないケースを参照する偽の引用を提出書類に挿入していました。

弁護士、検索エンジンの巨人、航空会社への良いニュース:少なくともいくつかの種類のAI幻覚はすぐに過去のものになるかもしれません。水曜日に科学雑誌「ネイチャー」に発表された新しい研究は、AI幻覚を検出するための新しい方法を説明しています。

以下の見出しを日本語に翻訳します:
その方法は、正しいAI生成の回答と間違ったAI生成の回答を約79%の確率で区別でき、これは他の主要な方法よりも約10%高いです。この方法はAIの幻覚の原因の一つしか対処しないが、標準のチャットボット会話の約10倍の計算能力を必要とするものの、結果はより信頼性の高いAIシステムのための道を開く可能性があります。

「現在利用されていない大規模言語モデルが必要とされる場で、より高い信頼性を提供する道を開くことが私の目標です」と、この研究の著者の一人であり、研究が行われたオックスフォード大学コンピューター科学部のシニア・リサーチ・フェローであるセバスチャン・ファークワー氏は述べています。

ファーカーハーはまた、Google DeepMindのセキュリティチームの研究者でもあります。ChatGPTの幻覚で罰せられた弁護士について、ファーカーハーは「これが彼の助けになっただろう」と述べています。

「幻覚」という概念は、人工知能の世界で重要性を増しているが、同時に議論の的にもなっている。モデルが主観的な世界体験を持つことを示唆しており、多くの情報科学者はこれを否定している。さらに、幻覚は大規模言語モデルの解決可能な特性であり、根本的な問題ではないことを示唆している。ファークハーのチームは、彼らが「虚構」と呼ぶ特定のカテゴリーの幻覚に焦点を当てた。

以下の見出しを日本語に翻訳してください:
「これは、事実に関する質問に対して整合性のない誤った回答をAIモデルが出す場合に発生します。この場合は、モデルのトレーニングデータに問題があるか、モデルの論理構造に欠陥があるために一貫した誤答が出る場合とは異なります。」

こちらの翻訳です:
これは、事実に対する質問に対し、AIモデルが一貫性のない誤った回答を与える場合に発生します。これは、モデルのトレーニングデータの問題やモデルの論理的な構造の欠陥が原因で一貫した誤答が出る場合とは異なります。

以下の見出しを日本語に翻訳してください:

「Konfabulationenを検出する方法は比較的簡単です。まず、チャットボットに同じ入力に対して複数の答えを出すように依頼します。次に、研究者が別の言語モデルを使用して、これらの回答を意味に基づいてグループ化します。」

研究者は、回答の意味がどれだけ似ているかまたは異なっているかを測る尺度を「意味的エントロピー」と呼び、算出します。高い意味的エントロピーは、モデルが虚構を交えていることを示唆します。

セマンティックエントロピーの検出方法は、他のAI幻覚検出アプローチを上回った。Farquharは、セマンティックエントロピーが主要なチャットボットの幻覚を減少させる方法についていくつかの考えを持っている。

彼は、理論上、これによりOpenAIにボタンを追加することが可能になると考えている。そのボタンを介してユーザーは回答の確実性を評価できるようになります。この方法は、正確性が重要となる高度に機密性の高い環境で使用される他のツールにも統合できる可能性があります。

Farquharが楽観的である一方で、いくつかの専門家は直ちの効果を過大評価しないよう警告している。プリンストン大学のコンピュータサイエンス教授であるArvind Narayananは、この研究を現実のアプリケーションに統合する際の課題を強調している。

彼は、幻覚が大規模言語モデルの機能における根本的な問題であり、近い将来この問題が完全に解決される可能性は低いと指摘している。

一目で過小評価された株を認識します。
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

2ユーロ/月の定期購読

ニュース