“System 0”代表了一种由人工智能驱动的新兴认知工具,它与人类的直觉和分析一起工作,以提高认知能力。
这个新系统有望支持复杂的决策和解决问题,但需要谨慎管理,以避免过度依赖,并确保合乎道德的使用。
System 0简介
人类与人工智能(AI)之间日益增长的互动正在形成一种新的思维方式,即“System 0”。这种新的认知框架存在于人类思维之外,但有可能增强我们的认知能力。System 0与两种既定的人类思维模式一起工作:System 1是快速、直觉和自动的,System 2是较慢、更善于分析和反思的。
然而,System 0引入了一层额外的复杂性,重塑了我们运作的认知景观。这可能代表着我们思考和决策方式的重大飞跃。我们必须利用这一进步来加强我们的认知自主权,确保我们不会过度依赖人工智能。
这一突破性的概念在10月22日的《自然人类行为》杂志上发表了一篇名为《作为System 0思维的人类与人工智能交互案例》的文章。这篇文章是由意大利卡托利卡大学米兰校区人文技术实验室主任Giuseppe Riva教授和意大利卡托利卡大学布雷西亚校区神经心理学应用技术实验室主任以及意大利卡托利卡大学布雷西亚校区的Mario Ubiali教授领导的研究小组撰写的。这项研究是由米兰联想基础设施解决方案集团的Massimo Chiriatti、纽约斯克内克塔迪联合学院的Marianna Ganapini教授和卡托利卡大学米兰校区的Enrico Panai教授合作进行的。
外部认知支持系统
就像外部驱动器允许我们存储计算机上没有的数据一样,我们可以通过将驱动器连接到PC上来工作,无论我们在哪里,人工智能都具有银河处理和数据处理能力,可以代表人类大脑的外部电路,能够增强它。因此就有了System 0的概念,它本质上是一种依赖于AI能力的“外部”思维形式。
通过管理大量数据,人工智能可以处理信息,并根据复杂的算法提供建议或决策。然而,与直觉思维或分析思维不同,System 0并不赋予它所处理的信息以内在意义。换句话说,人工智能可以在没有真正“理解”数据内容的情况下进行计算、预测和生成响应。
因此,人类必须对人工智能产生的结果进行解释,并赋予其意义。这就像有一个助手可以有效地收集、过滤和组织信息,但仍然需要我们的干预才能做出明智的决定。这种认知支持提供了有价值的输入,但最终的控制权必须始终掌握在人类手中。
过度依赖人工智能的风险
“风险在于,”Riva和Ubiali教授强调,“过于依赖System 0,而不锻炼批判性思维。如果我们被动地接受人工智能提供的解决方案,我们可能会失去自主思考和创新的能力。在一个日益自动化的世界里,人类继续质疑和挑战人工智能产生的结果是至关重要的,”专家们强调。
此外,人工智能系统的透明度和信任度是另一个主要难题。我们如何确保这些系统没有偏见或扭曲,并提供准确可靠的信息?教授们警告说:“使用合成或人工生成数据的趋势日益增长,可能会损害我们对现实的感知,并对我们的决策过程产生负面影响。”
他们指出,人工智能甚至可以劫持我们的内省能力。反思自己的思想和感受 —— 这是人类独有的过程。然而,随着人工智能的进步,依靠智能系统来分析我们的行为和精神状态可能成为可能。这就提出了一个问题:通过人工智能分析,我们能在多大程度上真正了解自己?人工智能能否复制主观体验的复杂性?
认知增强的未来
教授们指出,尽管存在这些问题,但System 0也提供了巨大的机会。由于能够快速有效地处理复杂数据,人工智能可以帮助人类解决超出我们自然认知能力的问题。无论是解决复杂的科学问题、分析海量数据集,还是管理复杂的社会系统,人工智能都可能成为不可或缺的盟友。
为了充分利用System 0的潜力,该研究的作者建议,迫切需要制定道德和负责任的使用指南。他们警告说:“透明度、问责制和数字素养是使人们能够批判性地与人工智能互动的关键因素。”“教育公众如何驾驭这种新的认知环境,对于避免过度依赖这些系统的风险至关重要。”
人类思想的未来
他们得出结论:如果不加以控制,System 0将来可能会干扰人类的思维。“至关重要的是,我们必须保持对如何使用它的意识和批判性;System 0的真正潜力将取决于我们引导它朝着正确方向发展的能力。”