镇江高防服务器-开源AGI智能体人人可养成:AGI对齐新思路,让智能体在人类世界中接受训练

一位网友依据Karpathy从前构想过的一个AGI智能体构架,创立了一个开源的智能体,命名为Samantha。
借助GPT-4V的才干,她能够做到:
-动态沟通:Samantha能够依据上下文和主意的影响随时说话。(镇江高防服务器)与仅限于回复用户提示词的的普通LLM完全不相同,Samantha能够自动采取举动,发起聊天,完结某些详细的使命。
-实时视觉才干:支持多模态信息的输入,输入视觉作用仅在上下文相关时才会被Samantha提及,并采取相应的举动,但总是会引起Samantha影响思维和行为。
-外部分类内存:由Samantha动态写入和读取,它挑选最相关的信息进行写入并检索到上下文。
-每时每刻都在学习和演变:存储在回忆中的阅历能够影响和刻画Samantha随后的行为,如性情、频率和言语风格等。
(视频是输入信息,右侧是Samantha的回复,左面文字是Samantha的考虑过程。
网友在看了Samantha的作用展示之后,惊呼,本来GPT-4真的已经是AGI了,看来OpenAI确真实操控时间,让人类能够习惯AGI来临的日子。
图片
太令人震惊了,这种结构足以构建一个根本的通用人工智能,能够运转许多的白领作业。
图片
在测验中,当谈论一个轻松的主题时,Samantha在对话中十分活跃,经常在我回答之前就讲了许多相关的内容。
但当切换到比较沉重的主题时(说我要离婚)并在镜头前表现出哀痛的姿态,Samantha聊天会变得很慎重,并给我时间考虑和回复她的对话。
作者期望Samantha在其他场合也以相同的方式说话,会促使它将该希望保存在回忆中,从而影响未来的对话。
让Samantha在对话之外运转,能够让她反思曩昔的对话和阅历,考虑其回忆中的各种主题,并依据考虑决议与用户如何开端对话。
假如你和Samantha一同去一家饭馆,并谈论餐厅很漂亮,你的朋友埃里克也很喜欢它,第二天经过那里时,Samantha就会看到这家餐厅,回忆起之前和这家餐厅的回忆,记住你觉得它很漂亮并谈论它,然后检索它所知道的关于Eric的回忆和信息,并说到喜欢那家餐厅很契合Eric的回忆。
Samantha很有时间概念,所以你能够要求它提示你10分钟后做某事,它可能会提示你,也可能会忘记,由于它正在考虑更有趣的作业。十分人性化!
Samantha怎么运转的:

编排一系列LLM调用,每个调用都有不同的目的。
作者将每个专门的LLM调用称为「模块」。Samantha是多个模块一同作业。
图片
模块包括:思维、认识、潜认识、答案、回忆读取、回忆写入、回忆挑选,愿景。
它们每个都有不同的体系提示,它们的输入和输出彼此和谐以模拟根本的人脑作业流程。
简而言之,Samantha是一个永无休止的思维和辅助体系循环,不断接纳视觉和听觉刺激,并依据所有这些来决议说什么、何时以及是否说某事。
作者将现有的作业开源了出来:
图片
项目地址:https://github.com/BRlkl/AGI-Samantha
以下作业流无限循环:
循环迭代从 gpt-4Vision开端。
然后,潜认识模块处理视觉和用户输入(用户能够随时输入),它还剖析当前正在发生的作业的上下文,并生成对萨曼莎的感受和情绪的描绘。
然后调用memory_read 来剖析当前上下文,并只为 Samantha 供给相关内存以坚持其上下文长度。
之后,认识模块被调用来剖析上下文并决议萨曼莎应该做什么,是说话仍是持续考虑,假如是,则做什么。
然后,思维模块接纳认识模块的命令,发生理性的思维。
最终,假如认识模块决议说话,答案模块会接纳萨曼莎的主意并撰写用户将看到的答案。
仅当短期回忆长度超越阈值时,才会偶尔调用 memory_write 模块将信息从短期回忆传输到长期回忆。
github 页面中有每个模块的详细描绘。
Samantha背后的理论考虑

这种结构是经过剖析和直接仿照人类的作业方式来完结的。人类永远不会中止考虑,并依据它们动态地说话。人类的回忆是经过分类的,只有当人类依据思维和布景自动或被动地获取它们时,才干拜访它们。
无法正确复制的一件事是从头连接大脑的体验过程,这需求积极地从头训练或微调LLM。但作者得出的定论是,能够经过在上下文长度中增加和保存内容来模拟相同的作用。例如,假如一个人学会变得达观,他们的大脑会从头连接以改动他们的行为,类似地在 LLM 上下文长度中增加「我很达观」会影响其下一个令牌概率,其思维输出将是达观,因此 LLM/Samantha 变得达观并表现得达观。
此外,值得一提的是认识模块的重要性。
举例来说,假如没有它,假如Samantha开端考虑轿车,它就永远不会中止考虑它们,慢慢地变成废话,就像人类处于梦境相同。
认识模块答应Samantha跟踪并确定它是否对某个主题进行了满足的考虑,做出最终定论,然后依据其冲动,对一个新的思维主题进行考虑。
这种自在的思维和言语方式催生了许多现有的突发行为,例如依据其所在的详细情况调整言语频率的才干,或许开端对话的才干,以及有挑选地运用视觉信息的才干等等。
这种提出的架构的一个优点是,假定假如这种架构能够成为超级智能,那么对齐将是微乎其微的,由于人类将能够直接看到它的主意,让一个根本的人工智能随时剖析它,并依据任何信号来剖析它。不良行为,能够当即封闭。
未来的开展:

这里有许多东西能够改善,这本质上是一个概念证明,而且运用的模型并未考虑到这些使命。比如如何写入信息以及写入哪些信息,以及它如何影响行为之类的作业尽管有用,但远非理想。回忆结构还不像人类,目前能够在几个月后填满上下文长度。左右功率低下。
体系的速度也是一个负面因素,长时间运转它显然是不合理的昂贵,但要记住两件事:
1. 较小的模型,每个模型专门训练来完结其中一个模块的作业,这将大大进步体系的功能。进步质量,降低成本和推迟
2. 然后,在某一时间,体系将有满足的才干自行挣钱(假如还没有的话)。
作者以为,假如目标真的是完结强大的AGI,那么假如只是让模型在互联网和合成数据上变得更加智能的趋势持续下去,那么 GPT-8也不会带来任何好处。相反,应该专门寻求更小的集中模型,以最大限度地进步署理的自主权以及更有用的学习。这就是为什么:
完结AGI并不意味着咱们需求制作一个老练的人类,咱们只需求构建一个能够像人类相同自主学习和运用常识的小人工智能婴儿。
假如能以合适的办法发明她,那么让它作为人类体验国际就会使它生长为像人类相同的国际。
这将使它能够学习和开展对咱们来说并不明显的主意和概念,而且这些主意和概念必定不会出现在互联网数据上。
除此之外,它不需求任何其他东西就能最终成为爱因斯坦。显然,这至少会让她更像人类。
出于这个原因,作者声称这个提出的架构是为了到达AGI,由于它答应创立一个独立的长期运转的人工智能,能够充当一个令人信服的、寻求常识的人类。
作者还有更多主意能够让这个架构变得更好,而且确信这是通向 AGI 的正确路途,或许至少是这个难题的一部分答案。但这些主意关于一个资金十分有限的人来说是不可能完结的。

共有 0 条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注