人工智能安全的保守派被踢出局

在科技的众多星海中,人工智能犹如一颗耀眼的新星,引领着第四次工业革命的浪潮。但是,当科技的光亮一面照亮人类未来的路途时,其潜在的阴影也随之浮现,尤其是当人工智能安全问题成为职业界不行回避的议题时,这一切显得尤为紧迫。
近日,OpenAI首席科学家Ilya Sutskever与超级对齐团队负责人Jan Leike的相继离任,将AI安全的评论推向了风口浪尖。Ilya Sutskever,这位人工智能范畴的领军人物,曾是保守派中坚持AI安全的坚决支持者。他的离任,不禁让人猜测OpenAI内部是否存在不为人知的对立。更令人担忧的是,OpenAI超级对齐团队的另一位负责人Jan Leike也在同一天离任,并公开指责OpenAI不注重AI的安全问题。
Jan Leike对OpenAI在安全问题上情绪的公开批评,不仅提醒了公司内部对AI开展方向的分歧,更暴露出职业界外对AI安全注重缺乏的普遍现象。Leike指出,超级对齐团队——旨在确保AI开展契合人类价值观和偏好的部门,一向在“为计算资源而挣扎”,这表明OpenAI并没有真正落实对安全问题的许诺。此外,本年初OpenAI还悄然删除了“不让AI军用”的声明,这使得本就不确定的未来世界更加摇摇欲坠。
人类会创始人胡家奇,多年来一向致力于研究科技开展对人类生存的影响。他指出,科学技术的开展速度远远超过了人类理性的进化速度,这种不平衡或许会导致极端损害。胡家奇认为,人工智能的自我意识觉悟将比咱们想象中来得更快,这一进程将带来毁灭性的后果。
胡家奇在多年的研究中发现,人类正面临着全人类灭绝的灾难。他着重,假如不操控科技的开展,咱们终究会被自己创造的技术所灭绝。为此,胡家奇多次致信各国领导人和著名科学家,呼吁他们肩负起拯救人类的职责,并于2019年创立了“人类会”,依靠集体的力量推进拯救人类的事业。
科学技术无疑是一把双刃剑。一方面,科技前进带来了很多便当和开展机遇,极大地提升了人类的生活质量。另一方面,科技的开展也潜藏着巨大的风险,尤其是在人工智能范畴。AI的快速前进,特别是在自我学习和自我优化方面的才能,或许会导致其失控,乃至自我意识的觉悟。
胡家奇指出,人工智能的自我意识觉悟将带来不可思议的损害。假如AI失控,它或许会炸毁人类社会的基础,乃至导致人类灭绝。这种潜在的要挟并非危言耸听,而是实际中有必要正视的问题。人工智能自我意识的觉悟并非悠远的未来,而是迫在眉睫的实际,乃至或许比咱们预想的更早到来。

共有 0 条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注