一场关于 AI 是否能具备自我意识、意识的本质是什么以及 AI 是否应有权利的辩论

bfeng @ 2024年04月17日  世界观

@宝玉xp

在 2024 年 Abundance360 峰会期间录制的这一集中,Ray、Geoffrey 和 Peter 展开了一场关于 AI 是否能具备自我意识、意识的本质是什么以及 AI 是否应有权利的辩论。
美国发明家及未来学家 Ray Kurzweil 是人工智能 (artificial intelligence) 的先驱,他在光学字符识别 (OCR)、文本到语音、语音识别技术上作出了巨大的贡献。他撰写了多本关于 AI 与技术未来的书籍,获得了国家技术与创新奖章 (National Medal of Technology and Innovation) 等多项荣誉。在 Google,Kurzweil 致力于机器学习和语言处理技术,推动技术进步和人类潜能的提升。
被誉为"深度学习之父"的 Geoffrey Hinton 是一位英国 - 加拿大的认知心理学家和计算机科学家,他在人工神经网络、深度学习 (deep learning) 和机器学习领域的开创性研究极大地推进了图像和语音识别等复杂任务的算法发展。
推荐阅读 Ray 的最新作《奇点更近了:当我们与 AI 合并》。
关于意识、感知和创造性
- Ray认为我们无法对意识下定义,但意识对于判断AI非常重要
- Geoff认为大多数人对意识的理解是错误的,应该用主观体验这个概念来理解AI的感知能力
AI的永生与权利 
- Ray认为数字化AI可以无限复制,所以"破坏"它们没有关系
- Geoff认为AI权重数字化使其可分享知识,但人脑神经元是模拟的,很难完全复制
AI发展的速度
- Ray感觉AI发展超前了他1999年的预测2-3年
- Geoff认为AI发展速度除了Ray之外都快于所有人的预期 
未来5-20年AI的发展
- Geoff认为未来5-20年有50%的可能性实现超级智能,他对此相当确信
- Ray提到马斯克预测2025年出现通用人工智能,2029年AI等同全人类,但Geoff认为这个预测过于乐观

超级智能的威胁与希望
- Ray认为人们对超级智能既抱有希望又存在担忧,因为我们无法预测其发展
- Peter担心反乌托邦式的AI系统可能比核武器更危险百万倍
AI模型开源的风险
- Ray认为开源AI语言模型存在很大风险,坏人可能利用它制造类似"原子弹"的效果
- Geoff指出开源使小型犯罪团伙都能微调模型做可怕的事,虽然正面力量也可利用,但考虑到不确定性,我们应该对此保持谨慎
Geoff 金句:
"我和杨立昆(Yann LeCun)曾就大模型是否应该开源的问题争论过,Yann 认为,对比那些有恶意的人,正面的力量或者说"白帽子"总是能利用更多的开源资源。当然,Yann 觉得马克·扎克伯格是个好人,我们在这点上并无共识。"
"我认为在接下来的 5 到 20 年里,我们有 50% 的可能性实现超级智能。所以我觉得这个进程可能比有些人预期的要慢,但又比其他人预期的要快。这个观点或多或少与很久以前 Ray 的看法相符,这让我有些惊讶。但我认为这里的情况充满了不确定性。虽然我认为我们可能会遇到某种阻碍,但实际上我并不相信会发生这样的情况。如果你看看最近的进展,其速度是如此惊人。即使没有任何新的科学突破,我们也能通过扩大规模来提高智能水平。而且科学突破肯定会出现。我们将会看到更多类似 Transformer 的技术。Transformer 在 2017 年带来了显著变革。未来,我们还会看到更多此类创新。所以我相当确信我们会产生超级智能。可能不会在 20 年内实现,但肯定会在 100 年之内。"
"我向你描述了一个聊天机器人如何有主观体验,就像我们人类有主观体验一样。假设我有一个具有摄像头和机械手臂的聊天机器人,它能够说话,并已经经过了训练。如果我在它面前放一个物体并告诉它指向物体,它会直接指向物体。这是正常的。但现在,我在它的镜头前放一个棱镜,即干扰了它的感知系统。然后我再在它面前放一个物体并告诉它指向物体,由于棱镜折射了光线,它指向了旁边。然后我告诉聊天机器人,"不,物体不在那里,物体就在你正前方。"聊天机器人回答,"哦,我明白了,你在我的镜头前放了一个棱镜,所以实际上物体就在我正前方,但我有一种主观体验,好像它在我旁边。"我认为,如果聊天机器人这样说,那么它使用"主观体验"这个词的方式,与你使用这个词的方式完全一样。因此,理解这一切的关键在于思考我们如何使用词汇,并尝试把我们实际使用词汇的方式与我们为词汇赋予的含义区分开来。"
视频来源:网页链接
完整文稿:网页链接 

(视频)