人工智能可以拯救人类,但前提是人们能够控制它——Ben Goertzel

访客 42 0

随着最近发布的 iPhone 16(苹果承诺针对人工智能进行优化),很明显人工智能再次正式成为普通消费者的首要考虑因素。然而,与最具前瞻性的人工智能技术专家预计在不久的将来可以实现的巨大能力相比,这项技术仍然相当有限。

尽管这项技术仍然令人兴奋,但许多人仍然担心将其如此深入地融入社会可能会产生负面后果。一个普遍的担忧是,足够先进的人工智能可能会将人类视为威胁并反对我们所有人,这是许多科幻故事中想象的场景。然而,一位领先的人工智能研究人员表示,通过人工智能开发的去中心化和民主化可以缓解大多数人的担忧。

在《议程》播客的第 46 集中,主持人乔纳森·德扬 (Jonathan DeYoung) 和雷·萨尔蒙德 (Ray Salmond) 通过与本·戈策尔,计算机最先普及“通用人工智能”(AGI)一词的科学家和研究人员。 Goertzel 目前担任 SingularityNET 和 ASI 联盟的首席执行官,领导这些项目开发世界上第一个 AGI。

通用人工智能的真正力量

< Goertzel 将 AGI 定义为“一种人工智能,它可以完成人类能做的所有事情,包括人类超越我们所接受的教育的能力。”这与已经存在了一段时间的更狭隘的人工智能不同,后者“做一些非常具体的事情,但不会试图拥有人类思维的整个广泛范围。”

虽然大型语言模型Goertzel 表示,像 ChatGPT 一样能够执行许多通用任务,但它们不符合通用人工智能的资格,因为它们不会冒险超出其训练范围。

有许多潜在的改变世界的好处来自开发 AGI。 “我们可以消除物质匮乏在人类日常生活层面上,就像我们可以把我们的狗想吃的所有牛排都鼓起来一样,”戈策尔说。 “我们不再需要为生计而工作了。像死亡和疾病这样的事情应该可以通过纳米技术来治愈,先进的人工智能可能可以创造纳米技术。”

“我的意思是,消除稀缺、死亡和疾病,这些都是非常大的好处,超出了我们所知道的较小的好处。一直在媒体上看到谈论,比如自动驾驶汽车和无人机将亚马逊的东西送到你家门口等等。”

相关:关于人工智能、现实世界采用和知识价值的 OriginTrail:议程播客

如何安全地开发通用人工智能

然而,强大的AGI并非没有风险。戈策尔告诉《议程》,虽然终结者式的世界末日启示录极不可能出现——尽管不能完全排除——但其发展中还存在其他固有的风险。 “人类可以采取适度行动的想法他分享道:“我们正在开发先进的人工智能,并利用它们出于自身利益对其他人做出恶劣的事情,这是一个非常、非常、非常明显且明显的风险。”“如果你看看我们如何现在作为一个物种正在操纵世界,你考虑引入与人类大致一样聪明的人工智能,最明显的事情是大公司使用这些人工智能来为自己赚更多的钱,而拥有庞大军队的国家则使用这些人工智能人工智能让自己获得更多权力。”Goertzel 表示,避免这些担忧并确保通用人工智能造福全人类的方法是去中心化和民主化。这样,它就不能被“少数强大的政党以自己狭隘的利益为中心”所控制。

“你需要的是某种方法来分散人工智能运行的所有这些进程,然后你需要一种方法将数据摄取分散到所有这些处理器中,”他争辩道。 “这就是 SingularityNET 的设计初衷d 提供。 […] 奇点让你可以收集人工智能代理,并在不属于任何中央方拥有和控制的机器上运行它们。”

“这是为了人类福祉而推出人工智能的正确方式。”<要了解 Goertzel 与 The Agenda 的对话的更多信息,包括他对 AGI 如何延长人类寿命、好莱坞对人工智能的正确和错误的看法,以及 AGI 是否会解开宇宙的秘密,请收听完整剧集Cointelegraph 的播客页面、Apple 播客或 Spotify。并且不要忘记查看 Cointelegraph 的其他节目的完整阵容! 

杂志:先进的人工智能系统已经具有“自我意识”——ASI 联盟创始人

本文仅供一般参考,仅供参考无意也不应被视为法律或投资建议。本文表达的观点、想法和意见仅代表作者个人观点,并不一定反映或代表其观点和观点。Cointelegraph 的意见。

抱歉,评论功能暂时关闭!