RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-05-15 00:15 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)當(dāng)?shù)貢r(shí)間5月13日,OpenAI舉行春季發(fā)布會(huì),宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4o。

根據(jù)OpenAI官方網(wǎng)站介紹,GPT-4o中的“o”代表Omni,也就是“全能”的意思。GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4 Turbo的一半,視頻、音頻功能得到改善。

GPT-4o速度更快,且能感知用戶情緒

根據(jù)OpenAI介紹,GPT-4o與GPT-3.5、GPT-4的語音對談機(jī)制不同。GPT-3.5和GPT-4會(huì)先將音頻轉(zhuǎn)換為文本,再接收文本生成文本,最后將文本轉(zhuǎn)換為音頻,經(jīng)歷這三個(gè)過程,音頻中的情感表達(dá)等信息會(huì)被折損,而GPT-4o是跨文本、視覺和音頻的端到端模型,是OpenAI第一個(gè)綜合了這些維度的模型,可更好進(jìn)行對談。

OpenAI技術(shù)負(fù)責(zé)人Mira Murati表示:“這是我們第一次在易用性方面真正邁出的一大步?!監(jiān)penAI研究員Mark Chen表示,新模型具有“感知情緒”的能力,能輸出笑聲、歌唱或表達(dá)情感,還可以處理用戶打斷它的情況。

GPT-4o極大地改進(jìn)了OpenAI的AI聊天機(jī)器人ChatGPT的體驗(yàn)。在發(fā)布會(huì)上,OpenAI研究主管Mark Chen和OpenAI的后訓(xùn)練團(tuán)隊(duì)負(fù)責(zé)人Barret Zoph通過現(xiàn)場演示展示出了新模型GPT-4o的強(qiáng)大。

如在演示對話中,Mark Chen表現(xiàn)得有點(diǎn)緊張,然后開始急促地呼吸。當(dāng)GPT-4o聽到Chen過度呼氣時(shí),它似乎從中察覺到了他的緊張,并說到:別緊張,你喘得像個(gè)吸塵器,深呼吸,再吐氣。接著GPT開始指導(dǎo)Chen怎么深吸慢呼平復(fù)心情。

在另一段對話演示中,Chen讓GPT給Zoph講個(gè)睡前故事哄他入睡,Chen反復(fù)打斷GPT的講述,問它能不能講得更刺激點(diǎn),最后GPT用非常迪士尼的方式唱出了一個(gè)故事。

GPT-4o還可以通過視覺識(shí)別檢測人的情緒。在一個(gè)演示中,Zoph將手機(jī)舉到自己面前正對著臉,要求ChatGPT告訴他自己長什么樣子。GPT-4o注意到了Zoph臉上的微笑,對他說:“看起來你感覺非常快樂,喜笑顏開?!?br />
GPT-4o也能夠進(jìn)行實(shí)時(shí)快速翻譯,OpenAI技術(shù)負(fù)責(zé)人Mira Murati在現(xiàn)場對ChatGPT說起了意大利語,GPT則將她的話翻譯成英語。

OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)表示,新的語音和視頻模式是他用過的最好的電腦界面,感覺就像電影里的AI。達(dá)到人類水平的反應(yīng)時(shí)間和表達(dá)能力是一個(gè)很大的變化。

Sam Altman談到:“對我來說,與電腦交談從來都不是一件很自然的事,現(xiàn)在它做到了。隨著我們增加(可選的)個(gè)性化、訪問你的信息、代表你采取行動(dòng)的能力等等,我真的可以看到一個(gè)令人興奮的未來,我們能夠使用計(jì)算機(jī)做比以往任何時(shí)候都多的事情?!?br />
GPT-4o功能未來將會(huì)進(jìn)一步發(fā)展

自發(fā)布之日,GPT-4o可在ChatGPT的免費(fèi)版本中使用,并提供給OpenAI的高級ChatGPT Plus和Team計(jì)劃訂戶,具有“5倍更高”的消息限制。OpenAI指出,當(dāng)用戶達(dá)到速率限制時(shí),ChatGPT將自動(dòng)切換到GPT-3.5。

OpenAI稱,基于GPT-4o的ChatGPT文本和圖像輸入功能將于本周一上線,語音和視頻選項(xiàng)將在未來幾周內(nèi)推出。另外,OpenAI將在未來1個(gè)月左右向Plus用戶推出基于GPT-4o改進(jìn)的語音體驗(yàn),目前GPT-4o的API并不包含語音功能。

OpenAI指出,在API使用方面,相比去年11月發(fā)布的GPT-4-turbo,GPT-4o價(jià)格降低一半。成本下降對于大模型的調(diào)用至關(guān)重要。OpenAI開始致力于將大模型推向市場。

另外據(jù)Murati介紹,GPT-4o的功能在未來將會(huì)進(jìn)一步發(fā)展。比如,盡管目前GPT-4o可以查看不同語言的菜單照片并進(jìn)行翻譯,但未來,該模型可能使ChatGPT能夠觀看直播的體育比賽并向您解釋規(guī)則。

Murati表示:“我們知道這些模型變得越來越復(fù)雜,但我們希望交互體驗(yàn)實(shí)際上變得更加自然、簡單,您不需要關(guān)注UI,而只需專注于與ChatGPT的合作?!?br />
對于大家一直關(guān)注的安全性問題,OpenAI也重點(diǎn)提及。據(jù)稱,通過過濾訓(xùn)練數(shù)據(jù)和訓(xùn)練后改進(jìn)模型行為等技術(shù),GPT-4o在設(shè)計(jì)中內(nèi)置了跨模式的安全性,并創(chuàng)建了新的安全系統(tǒng),為語音輸出提供護(hù)欄。

GPT-4o還與來自社會(huì)心理學(xué)、偏見和公平、錯(cuò)誤信息等領(lǐng)域的70多名外部專家開展廣泛的外部合作,以識(shí)別新增加的模式引入或放大的風(fēng)險(xiǎn),提高與GPT-4o互動(dòng)的安全性。

OpenAI表示,將繼續(xù)減少新發(fā)現(xiàn)的風(fēng)險(xiǎn)。由于認(rèn)識(shí)到GPT-4o的音頻模式存在各種新的風(fēng)險(xiǎn),目前公開的是文本和圖像輸入以及文本輸出,在接下來的幾周和幾個(gè)月里將圍繞技術(shù)基礎(chǔ)設(shè)施、訓(xùn)練后的可用性、發(fā)布其他模式所需的安全性開展工作,例如音頻輸出將僅限于選定的預(yù)設(shè)聲音,并將遵守現(xiàn)有安全政策。

寫在最后

可以看到,大模型技術(shù)正在快速發(fā)展,而OpenAI新模型GPT-4o無疑又將大模型技術(shù)和應(yīng)用推向了一個(gè)新高度。目前全球科技廠商都在積極角逐,微軟、谷歌等頭部企業(yè)都紛紛召開發(fā)布會(huì),密集推出大模型產(chǎn)品,蘋果傳言也已與OpenAI達(dá)成協(xié)議,在 iPhone使用其技術(shù)。不難看到,接下來大模型無論是在技術(shù)升級還是應(yīng)用落地上都將會(huì)呈現(xiàn)一番新景象。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    352

    瀏覽量

    15342
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1079

    瀏覽量

    6480
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1558

    瀏覽量

    7592
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    315

    瀏覽量

    305
收藏 人收藏

    評論

    相關(guān)推薦

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的 GPT-4o。本文將分享 2024 年 ChatGPT
    的頭像 發(fā)表于 10-29 18:17 ?732次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準(zhǔn)優(yōu)化AI應(yīng)用

    在8月21日的最新動(dòng)態(tài)中,OpenAI 宣布了一項(xiàng)革命性的新功能,正式向企業(yè)用戶開放其頂尖AI模型GPT-4o的定制能力。這一舉措標(biāo)志著OpenAI在激烈的企業(yè)級AI應(yīng)用市場中邁出了重
    的頭像 發(fā)表于 08-21 16:06 ?457次閱讀

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對話新紀(jì)元

    OpenAI近日宣布了一項(xiàng)令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗(yàn)到GPT-4o的語音模式,這一創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4o的高級語音模式以其卓越的實(shí)時(shí)對話
    的頭像 發(fā)表于 08-01 18:24 ?1201次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表
    的頭像 發(fā)表于 07-21 10:20 ?1019次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI發(fā)布高性價(jià)比小型AI模型GPT-4o mini

    在人工智能領(lǐng)域持續(xù)創(chuàng)新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,一款旨在以親民價(jià)格提供強(qiáng)大功能的小型聊天機(jī)器人。這款產(chǎn)品的問世,標(biāo)志著OpenAI在推動(dòng)人工智能普及與多模態(tài)融合方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:27 ?636次閱讀

    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開發(fā)教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的強(qiáng)大工具,可用于自然語言處理和多模態(tài)任務(wù)。在國內(nèi)直聯(lián)使用這些服務(wù)需要一些配置和技巧。本文將詳細(xì)介紹GPT-4o模型以及如何獲取
    的頭像 發(fā)表于 06-08 00:33 ?4896次閱讀
    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT4o</b> API調(diào)用開發(fā)教程!

    開發(fā)者如何調(diào)用OpenAIGPT-4o API以及價(jià)格詳情指南

    ?目前,OpenAI新模型GPT-4oGPT-4 Turbo的價(jià)格如下: GPT-4o 對比 GPT-4 Turbo
    的頭像 發(fā)表于 05-29 16:00 ?1.1w次閱讀
    開發(fā)者如何調(diào)用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4o</b> API以及價(jià)格詳情指南

    OpenAI 深夜拋出王 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示
    發(fā)表于 05-27 15:43

    GPT-4o更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    5月14日,OpenAI發(fā)布了最新的多模態(tài)大模型GPT-4o,這一次的更新,更注重使用體驗(yàn)了。現(xiàn)場展示的互動(dòng)效果包括:更快速的響應(yīng)對話交互,視頻識(shí)別環(huán)境情況,視頻指導(dǎo)做題,感知人的情緒(嘆息/笑聲
    的頭像 發(fā)表于 05-22 08:04 ?497次閱讀
    <b class='flag-5'>GPT-4o</b>更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?648次閱讀

    OpenAI正式推出GPT-4o模型,支持實(shí)時(shí)音頻、視覺和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布了詳細(xì)演示,展示了兩部搭載GPT-4o的設(shè)備如何實(shí)現(xiàn)語音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?507次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。GPT-4o是此前備受矚目的GPT-
    的頭像 發(fā)表于 05-15 09:23 ?398次閱讀

    GPT-4o深夜!AI實(shí)時(shí)視頻通話絲滑如人類,Plus功能免費(fèi)可用

    轉(zhuǎn)自:量子位|公眾號QbitAI不開玩笑,電影《她》真的來了。OpenAI最新旗艦大模型GPT-4o,不僅免費(fèi)可用,能力更是橫跨聽、看、說,絲滑流暢毫無延遲,就像在打一個(gè)視頻電話。現(xiàn)場直播的效果更是
    的頭像 發(fā)表于 05-15 08:27 ?634次閱讀
    <b class='flag-5'>GPT-4o</b>深夜<b class='flag-5'>炸</b><b class='flag-5'>場</b>!AI實(shí)時(shí)視頻通話絲滑如<b class='flag-5'>人類</b>,Plus功能免費(fèi)可用

    OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價(jià)格不變

     此外,該模型還具備128K的上下文記憶能力,知識(shí)截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。
    的頭像 發(fā)表于 05-14 17:12 ?845次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?502次閱讀
    RM新时代网站-首页