RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI o1大模型震撼發(fā)布,號(hào)稱秒殺GPT-4o、claude-3.5-sonnet?還超越了人類專家?

胡優(yōu)妮 ? 來源:jf_33463055 ? 作者:jf_33463055 ? 2024-09-13 16:15 ? 次閱讀

OpenAI o1大模型震撼發(fā)布,號(hào)稱秒殺GPT-4o、claude-3.5-sonnet、llama3.1-405b、deepseekv2.5、Qwen2?還超越了人類專家?

9月13日午夜(北京時(shí)間),OpenAI正式公開一系列全新AI大模型,這些模型旨在專門攻克各類難題。它們具備強(qiáng)大的復(fù)雜推理能力,作為通用模型,其所能解決問題的難度遠(yuǎn)超前代的科學(xué)、代碼和數(shù)學(xué)模型。

wKgaombj8-uACOYeAAcc8hZ4hjs827.png

o1便是此前OpenAI從山姆?奧特曼到各位科學(xué)家們一直大力“高調(diào)宣傳”的草莓大模型。據(jù)了解,它具備真正意義上的通用推理能力。在一系列高難度的基準(zhǔn)測試中,o1大模型展現(xiàn)出了令人驚嘆的超強(qiáng)實(shí)力,相較于GPT-4o實(shí)現(xiàn)了巨大的跨越,使大模型的水平從不盡人意直接躍升至優(yōu)秀級(jí)別。它無需專門訓(xùn)練就能在數(shù)學(xué)奧賽中斬獲金牌,甚至在博士級(jí)別的科學(xué)問答環(huán)節(jié)中超越了人類專家。

不過,由于o1等大型語言模型是基于大量文本數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練的,盡管它們蘊(yùn)含了廣泛的世界知識(shí),但在實(shí)際應(yīng)用中,可能存在成本高昂且運(yùn)行速度較慢的問題。

因此,更多的企業(yè)或許會(huì)優(yōu)先選擇開源模型。

說到開源模型,大家在評(píng)估開源模型使用效果時(shí),通常會(huì)使用哪些站點(diǎn)呢?

在此,我推薦我正在使用的兩個(gè)平臺(tái):www.perfxcloud.cnllmworld.net,PerfXCloud可以免費(fèi)評(píng)估各類主流大模型,包括llama3.1-405b、deepseek,面壁小鋼炮等各類主流大模型,llmworld上還有一些非常實(shí)用的AI小應(yīng)用。

wKgZombZZkuAPTUlAAJKpfaxNOw345.png

目前,o1-preview每位用戶每周僅能發(fā)送30條消息,o1-mini每位用戶每周僅能發(fā)送50條消息,我們都在期待正式上線后的價(jià)格公布。在llmworld.net上暫時(shí)還沒有看到該模型的價(jià)格信息

wKgZombj9EWAbrKlAAFVKowmFzI896.png

人工智能飛速發(fā)展的當(dāng)下,OpenAI的o1大模型無疑為我們帶來了新的思考和挑戰(zhàn)。一方面,我們驚嘆于其強(qiáng)大的性能表現(xiàn),另一方面也不得不面對(duì)其在實(shí)際應(yīng)用中的局限性。

期待有更多優(yōu)秀的開源模型崛起,為我們提供更多的選擇和可能性!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    352

    瀏覽量

    15342
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1079

    瀏覽量

    6481
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2423

    瀏覽量

    2640
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI發(fā)布o1模型,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍(lán)海?

    時(shí)間思考后再做出回答,而傳統(tǒng)大模型是直接給出回答,但往往這個(gè)回答并不準(zhǔn)確。 ? OpenAI介紹稱,OpenAI o1模型解決
    發(fā)表于 09-14 00:04 ?1429次閱讀
    <b class='flag-5'>OpenAI</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>o1</b>大<b class='flag-5'>模型</b>,數(shù)理化水平比肩<b class='flag-5'>人類</b>博士,國產(chǎn)云端推理芯片的新藍(lán)海?

    OpenAI發(fā)布o1模型API,成本大幅下降60%

    下降。 據(jù)OpenAI介紹,o1模型API的思考成本相較于預(yù)覽版本降低了60%,同時(shí)附帶了高級(jí)視覺功能,為用戶提供更加豐富和多樣化的使用體驗(yàn)。此外,
    的頭像 發(fā)表于 12-19 10:31 ?194次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該
    的頭像 發(fā)表于 07-21 10:20 ?1019次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> <b class='flag-5'>3.5</b> 性能<b class='flag-5'>超越</b><b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI發(fā)布高性價(jià)比小型AI模型GPT-4o mini

    在人工智能領(lǐng)域持續(xù)創(chuàng)新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,一款旨在以親民價(jià)格提供強(qiáng)大功能的小型聊天機(jī)器人。這款產(chǎn)品的問世,標(biāo)志著OpenAI在推動(dòng)人工智能普及與多模態(tài)融合方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:27 ?638次閱讀

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報(bào)道,OpenAI 在周四震撼發(fā)布其最新的人工智能模型——GPT-4o mini,此
    的頭像 發(fā)表于 07-19 15:24 ?621次閱讀

    Anthropic 發(fā)布Claude 3.5 Sonnet模型運(yùn)行速度是Claude 3 Opus的兩倍

    Anthropic 發(fā)布Claude 3.5 Sonnet最新模型模型在推理、知識(shí)和編碼能力
    的頭像 發(fā)表于 06-21 15:43 ?796次閱讀
    Anthropic <b class='flag-5'>發(fā)布</b><b class='flag-5'>Claude</b> <b class='flag-5'>3.5</b> <b class='flag-5'>Sonnet</b><b class='flag-5'>模型</b>運(yùn)行速度是<b class='flag-5'>Claude</b> 3 Opus的兩倍

    OpenAI競爭對(duì)手Anthropic發(fā)布最強(qiáng)大模型Claude 3.5 Sonnet

    Claude 3.5 Sonnet得分超過了OpenAIGPT-4o和谷歌的Gemini1.5 pro。而且后續(xù)還將推出
    的頭像 發(fā)表于 06-21 14:52 ?923次閱讀

    開發(fā)者如何調(diào)用OpenAIGPT-4o API以及價(jià)格詳情指南

    ?目前,OpenAI模型GPT-4oGPT-4 Turbo的價(jià)格如下: GPT-4o 對(duì)比 GPT-
    的頭像 發(fā)表于 05-29 16:00 ?1.1w次閱讀
    開發(fā)者如何調(diào)用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4o</b> API以及價(jià)格詳情指南

    GPT-4o更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    5月14日,OpenAI發(fā)布最新的多模態(tài)大模型GPT-4o,這一次的更新,更注重使用體驗(yàn)?,F(xiàn)
    的頭像 發(fā)表于 05-22 08:04 ?497次閱讀
    <b class='flag-5'>GPT-4o</b>更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?648次閱讀

    OpenAI正式推出GPT-4o模型,支持實(shí)時(shí)音頻、視覺和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布詳細(xì)演示,展示兩部搭載GPT-4o的設(shè)備如何實(shí)現(xiàn)語音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?507次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。
    的頭像 發(fā)表于 05-15 09:23 ?399次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)當(dāng)?shù)貢r(shí)間5月13日,OpenAI舉行春季發(fā)布會(huì),宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4o
    的頭像 發(fā)表于 05-15 00:15 ?7817次閱讀

    OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價(jià)格不變

     此外,該模型還具備128K的上下文記憶能力,知識(shí)截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。
    的頭像 發(fā)表于 05-14 17:12 ?846次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?503次閱讀
    RM新时代网站-首页