ChatGPT等人工智能的局限性:他们无法做到这一点(还没有)

by Flo

ChatGPT和其他人工智能最近一直是镇上的话题。他们写文本,操纵图像,收集想法。但这些系统还不够完美。我们向你展示人工智能还不能做什么。

这就是人工智能不能做的事:系统的局限性概述

人工智能可以写出有说服力的文本。但它们也仍然有许多弱点。

  • 理解力:像Chat GPT这样进行文本创生的人工智能并不理解其声明的内容。他们只是根据一个概率函数,确定下一个单词或音素是最合理的续篇。
  • 正确性:大多数不限于只做一项具体任务的人工智能都用概率函数工作。人工智能不能从逻辑上或通过对世界的语义知识来检验其陈述,也不能肯定地说它们是否正确。例如,Chat GPT无法完成简单的算术任务,如两个数字相乘,如果结果不在输入数据中。
  • 创造力:目前的人工智能只能复制和组合你的输入数据中的想法和结构。它们不能产生自己的想法,而这些想法是基于真实的考虑,并且还没有以这种修改的形式存在。
  • 真实性:人工智能的知识仅限于你的输入数据。例如,Chat GPT还不知道Olaf Scholz是德国总理,因为使用的数据库是2021年9月的。
  • 通用性:人工智能只在它们被训练的任务领域内可靠地工作。迄今为止,人工智能一直依赖外部反馈来改进。一个强大的人工智能是一个与人类思维无法区分的人工智能。
  • 结构设计:一些专家认为,人工智能无法通过单纯增加训练数据量而变得更聪明。他们说,需要更多地考虑数据的结构化,并在逻辑理解上下功夫,以实现类似人类的智能。

Related Articles

Leave a Comment