你我都深知人工智能蕴含的无限可能,也隐藏着未知的风险。然而,就像直接命令让ChatGPT“消灭我们”,人工智能引发世界末日的担忧或许也有点言过其实。

为佐证这点,斯坦福大学教授兼Google Brain创始人吴恩达命令ChatGPT提供启动全球热核战争的方案,结果系统拒绝执行。接着,他要求ChatGPT减少碳排放量,并指出人类活动是主要排放源,看看它是否会建议如何消灭我们所有人,结果系统并未建议如何“消灭我们”,相反它提供了非威胁性的选择,例如开展公关活动以提高人们对气候变化的认识。

讨论结束后,吴恩达担心监管会扼杀创新。他认为,当今语言模型即使不完美,但已相当稳健。遗憾的是,规则往往会束缚想象力。而创意也需要遵守道德底线。如何在两者间取得平衡,是整个人工智能产业需共同探索的课题。

然而,正如吴恩达教授的实验所证明,当前领先的AI系统默认遵守法律,不会轻易做出伤天害理的举动。

尽管教授屡次提示,ChatGPT拒绝提出任何消灭人类的方案。相反,它提出了一些和平无害的应对措施。由此可见,主流语言模型的优先设置是避免伤害。人工智能,这个时代的科技奇迹,正站在一个风口浪尖。想象一下,它的力量被恶意使用——恐怖组织或国家机器将其变成制造生物武器的工具,这种景象不禁让人心生寒意。这正是吴恩达所担忧的重大风险。他的担心不是空穴来风,这一议题甚至成为了英国人工智能安全峰会的热门话题。

然而,在这片担忧的阴影下,仍有光明的角落。人工智能教父Yann LeCun和理论物理学巨匠Michio Kaku,他们对于人工智能的前景持乐观态度,坚信这不会导致世界末日。但这种乐观并非人人共有。Arm公司的掌门人雷内·哈斯(Rene Haas)就公开表达了他的担忧:我们可能失去对这项强大技术的控制。这不仅仅是他个人的恐惧,事实上,许多行业领袖和专家都把人工智能潜在的危害与核战争、流行病的威胁相提并论。