2024年德國(guó)柏林消費(fèi)電子展覽會(huì)(IFA2024)盛大啟幕,長(zhǎng)虹集團(tuán)攜全球首款滄海智能體AI TV與長(zhǎng)虹美菱智匯家AI大模型驚艷亮相。滄海智能體AI TV,作為長(zhǎng)虹自研技術(shù)的集大成者,不僅實(shí)現(xiàn)了語(yǔ)音交流的精準(zhǔn)無(wú)誤,更具備深度學(xué)習(xí)與自我成長(zhǎng)的能力,讓電視不僅僅是觀看工具,而是成為生活中的智慧伙伴。
同時(shí)發(fā)布的智匯家AI大模型,則以80億級(jí)參數(shù)規(guī)模傲視群雄,深度融入冰箱、洗衣機(jī)、空調(diào)等家電之中,賦予它們前所未有的“思考”能力。這一創(chuàng)新舉措,使得長(zhǎng)虹美菱家電能夠更精準(zhǔn)地理解用戶需求,提供定制化、智能化的生活服務(wù),引領(lǐng)智能家居新風(fēng)尚。
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
相關(guān)推薦
AI技術(shù)的飛速發(fā)展令人矚目。就在企業(yè)領(lǐng)導(dǎo)者們剛開(kāi)始熟悉AI助手時(shí),AI智能體Agent(國(guó)際版)已經(jīng)迅速成為討論的焦點(diǎn)。它們之所以受到廣泛關(guān)
發(fā)表于 12-19 17:55
?201次閱讀
聯(lián)想集團(tuán)近日在美國(guó)西雅圖舉辦了年度Tech World大會(huì),會(huì)上聯(lián)想CEO楊元慶與Meta創(chuàng)始人兼CEO馬克?扎克伯格共同宣布了一項(xiàng)重要合作。雙方基于Meta的Llama大模型,推出了面向PC的個(gè)人AI智能
發(fā)表于 10-17 16:58
?534次閱讀
非常高興本周末收到一本新書(shū),也非常感謝平臺(tái)提供閱讀機(jī)會(huì)。
這是一本挺好的書(shū),包裝精美,內(nèi)容詳實(shí),干活滿滿。
關(guān)于《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章“AI
發(fā)表于 10-14 09:16
近日,海信正式發(fā)布了AI電視新品E7N系列,這款電視搭載了海信自研的星海AI大模型,為用戶帶來(lái)了前所未有的智能體驗(yàn)。
發(fā)表于 10-08 15:31
?468次閱讀
目前人工智能在繪畫(huà)對(duì)話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書(shū)對(duì)ai4s基本
發(fā)表于 09-09 15:36
AI大模型和AI框架是人工智能領(lǐng)域中兩個(gè)重要的概念,它們之間的關(guān)系密切且復(fù)雜。 AI大模型的定義
發(fā)表于 07-16 10:07
?4w次閱讀
Beta。鴻蒙原生智能是基于軟硬芯云協(xié)同的硬件與基礎(chǔ)設(shè)施架構(gòu),AI與OS深度融合的智能系統(tǒng)。 小藝智能體:能思考,會(huì)規(guī)劃,可執(zhí)行 基于鴻蒙原
發(fā)表于 06-24 14:30
?526次閱讀
使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx
```
Neural Network Tools for STM32AI v1.7.0 (STM.
發(fā)表于 05-27 07:15
模型,為什么還需要發(fā)展AI智能體呢?這還需要從AI智能體
發(fā)表于 05-12 08:04
?344次閱讀
使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx
```
Neural Network Tools for STM32AI v1.7.0 (STM.
發(fā)表于 03-14 07:09
NanoEdge AI 是一種基于邊緣計(jì)算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
發(fā)表于 03-12 08:09
AI大模型
電子發(fā)燒友網(wǎng)官方
發(fā)布于 :2024年01月02日 16:27:52
AI大模型
電子發(fā)燒友網(wǎng)官方
發(fā)布于 :2024年01月02日 15:42:05
AI大模型
電子發(fā)燒友網(wǎng)官方
發(fā)布于 :2024年01月02日 15:11:43
AI大模型
電子發(fā)燒友網(wǎng)官方
發(fā)布于 :2024年01月02日 15:09:29
評(píng)論