AI学习圈丨GPT-4o发布,全能模型让AI陪伴和搭子成为了可能!

AI与情感6mos agoupdate lida
31 0 0

AI学习圈丨GPT-4o发布,全能模型让AI陪伴和搭子成为了可能!

日常分享AI前沿

昨晚,OpenAI 开了一场25分钟的发布会,推出新产品AI模型GPT-4o。这个字母o代表的单词就是“Omnimodel”,意思就是全能模型。

新模型GPT-4o 可以阅读文字,观看图片,聆听声音,理解问题,进行推理演绎,然后用延误时间极低的响应速度用语音给出回应或者答案。

因为间隔时间极短,和新模型的机器人对话就像是和真人对话一样。

在现场,OpenAI的工程师拿出一个iPhone,他对手机说:“我第一次来直播的发布会,有点紧张。”ChatGPT说:“要不你深呼吸一下。”然后他深呼吸了一下,AI马上说:“你这不行,喘得声音也太大了。”

这种感觉非常科幻了,简直就跟自己的朋友面对面聊天一样。

之前人们普遍猜测,OpenAI 可能会在发布会上推出搜索引擎,遭到了断然否定。

人类从来就不需要搜索引擎,人类需要的是自己提问,然后有人给出回答,至于说回答的那个“人”究竟是真人还是机器人,大概没有多少人会真正关心。如果可能的话,人们更愿意有一段持续的对话,可以继续追问下去,得到更为详细的解释。

发布会上还有一些细节非常有意思。

第一个细节,这个模型可以在232毫秒的时间内响应音频输入,这就和人类的反应时间很相似了,实时对话+语气的细节让它更像真人!

第二个细节,你可以随时打断它,不用非要等它说完就可以继续说下去,这也让对话更像真实环境里的对话。

第三个细节,多媒介信息的感知和输入,让它能感知的信息多了很多维度,也更新正式环境里的互动。

第四个细节,另一位工程师在纸上写了一个方程式,让ChatGPT不直接给答案,而是解释一步步怎么做。这个在很多教育场景里太让人有想象空间了,这个一步步教学的感觉,可以24小时随时待命,家长们绝对有福了!

第五个细节,给AI一段视频,它能识别出中间人物的表情。这意味着AI能识别到你的不同情绪,然后用不同的方式来跟你互动对话,你开心、愤怒、沮丧、无聊时,它都可以非常体贴地陪着你。妥妥的情绪价值拉满!

第六个细节是,你可以跟一张图片进行对话。怎么说呢,例如你打开冰箱,拍张照片,直接跟AI说:“这顿饭可以做什么?”然后它就可以给你输出一个按照冰箱里的菜而出的菜谱,整个交互非常丝滑。但是你想啊,在刚才这个简单的流程中,有语音输入、图片输入,还有菜谱的文本输出。

那以后当AI帮你记录的东西足够多的话,你出去遇到一个熟人,但是完全忘记他是谁的这种情况,你只要拍一张照片,AI就能调出历史记录,帮你回忆起你是在什么时候认识他的,你们之间发生过什么事情,等等,让你不再成为一个脸盲。

当然,除了这个全能模型的发布,OpenAI还发布了电脑版应用,其实就是希望能覆盖你工作生活的各个场景,这对上班族来说非常友好了。

这个全能模型,让很多场景接下来都可以从梦想变成现实了。

当你看到一篇网文的时候,你可以直接问AI,“这句话真是鲁迅说的吗?”AI在对面回答你,“不,鲁迅没说过。”

当你跑步散步时,突然有个想法的时候,直接说:“帮我记下一条笔记。”AI马上说:“没问题,你说吧,我听着。”

当你看到一个知识点时,你问AI:“我以前有没有记过类似的笔记?帮我找出来。”AI直接说:“你以前一共记过六条笔记,都跟这个知识点有关。”

未来一个AI搭子,AI教育陪伴,和菜头说的机械陪伴父母都成为了现实!

© Copyright notes

Related posts

No comments

No comments...