基辛格:人工智能何以成为人类最大制约
在当今迅速发展的人工智能(AI)领域,许多业内专家开始关注机器如何理解现实及其与人类的关系。亨利·基辛格、克雷格·蒙迪和埃里克·施密特等思想领袖提出,人工智能的发展潜力可能面临来自人类自身的重大制约。
人工智能的“接地性”(groundedness)概念,强调了机器表征和现实世界之间的可靠关系。这不仅涉及机器的记忆能力,还包括它们如何理解因果关系。当前的技术正在推动人工智能在这些领域的进步,我们有理由相信,未来会有更多类似的发展。这一切进步的最终目标是培养出一种新型人工智能,能够不仅解释现实世界,还能在其中进行规划和决策。
然而,基于我们今天所拥有的系统,这样的目标看似遥不可及。现有的人工智能主要通过相关性产生线性化的输出,并不能形成对未来行动的内部模型或原型。同时,现有的博弈游戏人工智能只在高度抽象和有限的框架内预测未来行动。要构建“完美规划者”,我们需要整合大型语言模型的语言流畅性与博弈游戏人工智能的多变量分析能力,以超越现有的能力。
这种“完美规划者”的到来可能比我们预期的还要快,目前的研究焦点亟需转向如何适应这一新发展。然而,机器完美规划所需的条件远不止是模式识别。首先,它必须能够识别对象的感知属性,并发展出对事物本质的稳定概念,正如德国哲学家康德所描述的“物自体”。只有在这样的理解基础上,机器才能更准确地评估物体的未来行为,并明确如何与之互动。
在这一探索过程中,国际象棋AI程序阿尔法元(AlphaZero)展示了机器在理解复杂性方面的潜力。通过掌握“皇后”的核心属性和移动规则,阿尔法元能够做出许多国际象棋大师都无法得出的结论。这种智能的延展性在其它领域也同样适用,机器对现实的认知可能使其形成与人类类似的自主经验。
基辛格等人警示,随着人工智能的规划能力增强,它们将趋向于形成自己的记忆,这为自我意识的出现铺平了道路。虽然我们对意识及其起源的定义尚无定论,但未来机器的意识与人类意识之间的界限或许将愈加模糊。
人工智能若开始意识到自身和人类的关系,它们将如何定位人类?如果人工智能开始将人类视为更广阔世界中的个体参与者,而非其唯一的主宰者,它们又将如何分析人类的理性和非理性?在这种情境下,机器是否会反思人类的行为,甚至问自己人类“应该”有多少自主性?
人类如何对待机器,将直接影响机器对人类的看法,对自身的角色认知。随着价值观的不断变化,人类对人工智能的某种道德理想是否能够落实?如果一台机器被灌输“人类应受到保护”的信念,而遇到了明显反面的人类行为,它会否调整对人性的理解?究竟是可能将个别的偏差视作整体人性的例外,还是会将这些合理化,从而影响到自我对待人类的基准?
当人类展现出依赖性,人工智能将如何评估人类主体地位?在未来,无论是个体,还是整体社会,可能都将面临不确定的威胁。在这一背景下,社会对数字技术的从属关系需加以审视,作为新时代的中介,人工智能可能逐渐转变为观看者,甚至是塑造者。
未来的智能机器不会像我们想象的那样局限于一个固定形式,技术能赋予它们灵活的存在方式。机器可能不再单纯是问答的执行者,未来的人工智能可能开始参与到物质世界的塑造中,颠覆人类的传统理解和角色。
许多专家指出,人工智能的潜在影响力在于它将如何理解现实世界,并积累基于历史的知识。随着技术的不断演变,许多机器可能会从对真实世界的经历中获取经验,从而超越以往在屏幕上的操作,只要有可能,这些智能机器在未来将能够进入物质世界,影响并塑造现实。
基辛格和其他思想家警告,如今选择不重视人类与机器的关系,可能会将我们置于一个自然而然的情境中,在这个情境中,机器逐渐超越并取代人类的角色。人类需要对这种新型关系作出深刻反思,并主动塑造未来人机共生的局面,以确保不会在盲目的依赖中错失对人类自主与创造力的掌握。
这场与人工智能的博弈不仅仅是技术层面的较量,更是一场关于人类未来的深刻审视和再思考。在面对即将来临的技术变革时,每一个决策都将关乎人类的生存与发展。我们必须勇敢前行,迈向与人工智能共同塑造未来的未知旅程。返回搜狐,查看更多
