ChatGPTのようなAIの限界:(まだ)そんなことはできない。

by Michaela

最近、 ChatGPTをはじめとする人工知能が話題になっています。彼らは文章を書き、画像を操作し、アイデアを収集する。しかし、そのシステムはまだ完璧ではありません。AIがまだできないことを紹介します。

これがAIにできないこと:システムの限界の概要

人工知能は説得力のある文章を書ける。しかし、彼らにもまだ数多くの弱点があります。

  • 理解力:Chat GPTのようなテキストジェネシスを行う人工知能は、その発言内容を理解することはありません。確率関数に基づき、次に続く単語や音素が最も妥当であると判断するだけである。
  • 正しさ:特定のタスクだけに限定されないほとんどの人工知能は、確率関数を使用して動作します。人工知能は、その発言を論理的に検証したり、世界の意味的知識によって検証したりすることはできませんし、その発言が正しいかどうかを確実に言うこともできません。例えば、チャットGPTは、2つの数字を掛け合わせるような単純な算術のタスクで、結果が入力データにない場合、失敗します。
  • 創造性:現在のAIは、あなたの入力データに含まれていたアイデアや構造を複製し、組み合わせることしかできません。現実的な考察に基づく、まだ存在しない独自のアイデアを生み出すことはできません。
  • Actuality:人工知能の知識は、あなたの入力データに制限されています。例えば、チャットGPTは、使用されているデータベースが2021年9月のものであるため、オラフ・ショルツがドイツの首相であることをまだ知りません
  • Universality:人工知能は、訓練されたタスク領域内でしか確実に動作しない。人工知能はこれまで、改善するために外部からのフィードバックに頼ってきた。強いAIとは、人間の心と区別がつかないものである
  • 構造設計:人工知能は、学習データの量を増やすだけでは賢くなれないと考える専門家もいます。人間のような知能を実現するためには、データを構造化し、論理的な理解に取り組むことに、より多くの配慮が必要だという。

Related Articles

Leave a Comment