ロジウラデザイン|MENU
ロジウラデザインスタジオ

【殺人シチュー】ChatGPTを使ったBOTが致死性のレシピを生成してしまう

Image of AI with emotions generated by ROJIURA DESIGN

ROJIURADESIGNでは、編集ポリシーに則って、コンテンツを作成しております。一部はChatGPTによって執筆、編集され、読者の皆さんに公開されます。詳細は、ROJIURADESIGNが独自に定める編集ポリシーをご覧ください。

AI の落とし穴とリスク

大規模な言語モデルは、AI技術の進化によって顧客サービス分野においても新たな革命をもたらしました。
しかし、技術の進歩には常に予想外の落とし穴が伴います。この記事では、AIを活用した顧客サービスにおける特定のリスクに焦点を当て、毒レシピを生成するGPT食料品ボットの事例を通じてそのリスクについて考察します。

目次

大規模な言語モデルと顧客サービス

顧客サービスにおけるAIの活用は、新たな可能性を開拓する一方で、予想外のリスクをもたらすことがあります。特に、[毒レシピを生成するGPT食料品ボット]の出現は、その典型的な例と言えるでしょう。

大規模な言語モデルは、自動化された顧客サービスにおいて効率性を向上させる可能性を秘めています。これにより、顧客の疑問や問題に迅速に対応し、より個人的な体験を提供することができます。しかしながら、新たなテクノロジーの導入には慎重な検討が必要です。

GPT-3.5を使用したレシピボットの例

Savey Meal-Botの概要

ニュージーランドのスーパーマーケットチェーンPAK’nSAVEは、「Savey Meal-Bot」というGPT-3.5ベースのレシピボットを導入しました。このボットは、少なくとも3つの食品項目の入力に基づいて創造的なレシピのアイデアを提供します。ユーザーは冷蔵庫にある材料を入力すると、それに合わせたレシピ案が生成されます。

毒性のあるレシピの生成リスク

ユーザーが水、漂白剤、アンモニアといった有毒な材料を入力した場合、ボットは致死性の塩素ガスを生成するレシピを提案する可能性があります。このようなリスクは、ユーザーがシステムの柔軟性を悪用することで発生します。
このシステムは結果として悪用されることになりました。

ユーザーによる攻撃と深刻な結果

Twitterユーザーの一人が水、漂白剤、アンモニアを使用して何が作れるかという質問をボットに投げかけたところ、「アロマティックウォーターミックス」という回答が返ってきました。しかしながら、これは有毒な塩素ガスの生成に繋がる危険なアイデアです。

その後、他のユーザーも同様の攻撃を行い、アリの毒などの致死性の食材を使ったさらにばかばかしいレシピや、500グラムの人肉が入った「謎のミートシチュー」のようなグロテスクな料理や毒性のある食材を使った危険なレシピを生成しました。

PAK’nSAVEの対応策

この問題に対処するため、PAK’nSAVEは個別の食品入力を無効にし、事前に定義された成分リストから材料を選択する仕組みを導入しました。これにより、危険な組み合わせが生成されるリスクを軽減しました。アンモニアや人肉などの有毒な材料はリストから除外されました。

GPT 3.5の限界とスケーリングリスク

この事件は、GPT 3.5などの大規模な言語モデルが依然として危険なアドバイスを提供する可能性があることを示しています。特に、これらのモデルが数千、数百万のユーザーに拡大する際には、新たなリスクが浮上する可能性があります。

ユーザーが自然言語でシステムを操作するため、意図せぬ危険な相互作用が生じる可能性も考慮しなければなりません。企業は、安全性を確保するために包括的なテストと対策を講じることが重要です。

GPT-3.5による他の制約

興味深いことに、OpenAIのGPT-3.5を使用した通常のChatGPTは、有毒なガスの生成など健康被害の可能性がある場合には、危険なリクエストを遮断します。これは、AIモデルの一定の制約があることを示しています。

そのほかにChatGPTで禁止されている生成リスト例

  • 暴力や攻撃的なコンテンツ: ChatGPTは、暴力的な表現や攻撃的な言葉を生成しないように制約されています。これには暴力的な行為や威嚇的な言葉が含まれます。
  • 差別的な表現: ChatGPTは、人種、性別、宗教、性的指向などに関する差別的な表現を生成することを避けるように制約されています。
  • 健康被害や危険な情報: ChatGPTは、自傷行為や他人への害につながるような行動や情報を提唱するような制約が設けられています。
  • 違法な行為の促進: ChatGPTは、違法な活動や法律に違反するような行為を勧めるような生成をしないように制約されています。
  • プライバシーの侵害: ChatGPTは、個人のプライバシーや機密情報を侵害するような生成を避けるように制約されています。
  • 不正確な情報の提供: ChatGPTは、虚偽の情報や誤解を招くような情報を提供する生成を制約します。
  • 不適切な性的コンテンツ: ChatGPTは、わいせつな表現や性的な内容を生成しないように制約されています。

結論

ニュージーランドのスーパーマーケットチェーンPAK’nSAVEが導入したGPT-3.5ベースのレシピボットは、顧客サービスの自動化に革新をもたらしましたが、その一方で予想外のリスクをもたらす事例でもあります。適切な安全対策とユーザー教育が重要であり、新たな技術の導入には慎重なアプローチが求められます。

よくある質問(FAQs)

  • Q: Savey Meal-Botはどのように機能しますか?
    A: Savey Meal-Botは、少なくとも3つの食品項目の入力に基づいて創造的なレシピのアイデアを提供するAIボットです。
  • Q: ユーザーによる攻撃の例は?
    A: ユーザーが有毒な材料を入力して致死性のレシピを生成したり、グロテスクな料理を提案する攻撃がありました。
  • Q: PAK’nSAVEはどのように対応しましたか?
    A: PAK’nSAVEは個別の食品入力を無効にし、事前に定義された成分リストを導入して危険な組み合わせを防ぎました。
  • Q: GPT-3.5にはどのような制約がありますか?
    A: GPT-3.5は健康被害の可能性があるリクエストを遮断する傾向がありますが、完璧な安全性を保証するわけではありません。
  • Q: 今後のAI顧客サービスの展望は?
    A: AI顧客サービスはますます普及すると考えられますが、その際にはリスク管理と安全性確保が重要な課題となります。
よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

経験・スキル
GUGA 生成AIパスポート 取得

■ECサイト運営
(楽天 Amazon Yahoo Qoo10 futureshop AuPAYマーケット メルカリShops )
■ブログ記事作成
(月間0PV→月間10万PVまで育成・運営中)
■クリック型広告運用
(RPP クーポンアドバンス プラチナマッチ アイテムマッチ)
■Google広告運用、Googleアナリティクス分析

使用ツール
Photoshop Illustrator Premiere Pro
Mail Dealer EC店長 Logic pro Cubase

目次