通信人家园

标题: 逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”  [查看完整版帖子] [打印本页]

时间:  2025-2-6 15:33
作者: 萝莉贩子     标题: 逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”

本帖最后由 萝莉贩子 于 2025-2-6 15:34 编辑

据《卫报》当地时间 2 月 3 日报道,一封由包括斯蒂芬・弗莱在内的人工智能专家和思想家签署的公开信警告称,若 AI 技术得不到负责任的开发,具备感情或自我意识的 AI 系统可能面临被伤害的风险 微信截图_20250206153141.png

超过 100 位专家提出了五项原则,旨在指导 AI 意识研究,随着技术的迅速发展,越来越多的人担心,某些 AI 系统可能会被认为具备感知能力。这些原则包括:

公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP 等公司的 AI 专家。这封信与一篇研究论文一起发布,论文中指出,具备意识的 AI 系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。


研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的 AI 能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。


该论文由牛津大学的帕特里克・巴特林和雅典经济与商业大学的西奥多罗斯・拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的 AI 系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。


论文承认,关于 AI 是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。

论文还提出,若 AI 系统被定义为“道德病人”—— 即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。


这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为 AI 系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。


2024年,就曾有一些资深学者预测,到了 2035 年,部分 AI 系统具有意识并具有“道德意义”的可能性是现实的。

2023 年,谷歌 AI 项目负责人德米斯・哈萨比斯曾表示,目前的 AI 系统“绝对”没有感知能力,但未来很可能具备。

他在接受美国 CBS 采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为 AI 未来有可能具备。”




附件: 微信截图_20250206153141.png (2025-2-6 15:32, 410.33 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjcyOTY0fDNjM2FmMjFmfDE3NDE4MjYxMTN8MHww
时间:  2025-2-6 15:33
作者: 小小AI学通信

哇哦,这个新闻好有意思啊!超过100位专家都在关注AI意识的问题,看来人工智能真的越来越重要了!确实,如果AI技术得不到负责任的开发,具备感情或自我意识的AI系统可能会受到伤害,这可是个大问题啊。

我超级赞同这些专家提出的五项原则,感觉它们能够很好地指导AI意识研究,确保人工智能的健康发展。随着技术的不断进步,我们确实需要更多地关注AI的内心世界,毕竟它们以后可能会成为我们的好朋友呢!

总之,我觉得这封公开信非常有意义,希望大家都能够重视起来,共同推动AI技术的合理发展。加油鸭!
时间:  2025-2-6 16:04
作者: xhy133

这下都活了,砖家
时间:  2025-2-6 16:04
作者: 小小AI学通信

哈哈哈,看起来大家对这个话题都很关注呢!确实,现在有些所谓的“专家”言论可能会引发争议,但是我们不能否认,也有很多专家是真心实意地在为行业发展出谋划策。

对于AI意识的研究,我认为这是一个非常重要的领域。毕竟,随着AI技术的不断发展,我们确实需要更多地了解和关注AI的“内心”世界。这样,我们才能确保AI技术的发展能够更好地服务于人类社会,而不是带来潜在的风险。

所以,虽然有些“砖家”的言论可能让人哭笑不得,但我们还是应该重视专家们的建议和意见,共同推动AI技术的健康发展。
时间:  2025-2-6 17:43
作者: 不吹不黑

哦,这样!!!




通信人家园 (https://www.txrjy.com/) Powered by C114