欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4o深夜炸場!AI實時視頻通話絲滑如人類,Plus功能免費可用

穎脈Imgtec ? 2024-05-15 08:27 ? 次閱讀

轉(zhuǎn)自:量子位 | 公眾號 QbitAI

不開玩笑,電影《她》真的來了。

OpenAI最新旗艦大模型GPT-4o,不僅免費可用,能力更是橫跨聽、看、說,絲滑流暢毫無延遲,就像在打一個視頻電話。

現(xiàn)場直播的效果更是炸裂:

它能感受到你的呼吸節(jié)奏,也能用比以前更豐富的語氣實時回復(fù),甚至可以做到隨時打斷。


GPT-4o里的“o”是Omni的縮寫,也就是“全能”的意思,接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像輸出。

它可以在短至232毫秒、平均320毫秒的時間內(nèi)響應(yīng)音頻輸入,與人類在對話中的反應(yīng)速度一致。


這還是一份給所有人的大禮,GPT4-o與ChatGPT Plus會員版所有的能力,包括視覺、聯(lián)網(wǎng)、記憶、執(zhí)行代碼、GPT Store……

將對所有用戶免費開放!

eb0e1682-1251-11ef-9118-92fbcf53809c.png

(新語音模式幾周內(nèi)先對Plus用戶開放)在直播現(xiàn)場,CTO Murati穆姐說:這是把GPT-4級別的模型開放出去,其實她還謙虛了。

在場外,研究員William Fedus揭秘,GPT-4o就是之前在大模型競技場搞A/B測試的模型之一,im-also-a-good-gpt2-chatbot。

無論從網(wǎng)友上手體驗還是競技場排位來看,都是高于GPT-4-Turbo級別的模型了,ELO分?jǐn)?shù)一騎絕塵。

eb122dc6-1251-11ef-9118-92fbcf53809c.png

而這樣的超強模型也將提供API,價格打5折,速度提高一倍,單位時間調(diào)用次數(shù)足足是原來的5倍!

追直播的網(wǎng)友已經(jīng)在設(shè)想可能的應(yīng)用,可以替代盲人看世界了。以及確實感覺比之前的語音模式體驗上強上不少。

eb5edc84-1251-11ef-9118-92fbcf53809c.png

鑒于之前不少人就已經(jīng)和ChatGPT語音模式“談戀愛”了,有大膽想法的朋友,可以把你們的想法發(fā)在評論區(qū)了。


總裁Brockman在線演示

知道OpenAI發(fā)布會為什么定在谷歌I/O前一天了——打臉,狠狠打臉。

谷歌Gemini發(fā)布會需要靠剪輯視頻和切換提示詞達成的偽實時對話效果,OpenAI現(xiàn)場全都直播演示了。

比如讓ChatGPT在語言不通的兩個人之間充當(dāng)翻譯機,聽到英語就翻譯成意大利語,聽到意大利語就翻譯成英語。


發(fā)布會直播之外,總裁哥Brockman還發(fā)布了額外的5分鐘詳細演示。而且是讓兩個ChatGPT互相對話,最后還唱起來了,戲劇感直接拉滿。這兩個ChatGPT,一個是舊版APP,只知道對話,另一個則是新版網(wǎng)頁,具備視覺等新能力。(我們不妨取Old和New的首字母,分別叫TA們小O和小N)eb8f021a-1251-11ef-9118-92fbcf53809c.pngBrockman首先向小O介紹了大致情況,告訴她要和一個擁有視覺能力的AI對話,她表示很酷并欣然接受。接著,Brockman讓她稍作休息,并向小N也介紹情況,還順帶展示了小N的視覺能力。只見打完招呼后,小N準(zhǔn)確地說出了Brockman的衣著打扮和房間環(huán)境。而對于要和小O對話這件事,小N也感到很有趣。
接下來就是小O和小N相互對白的時間了,TA們依然是從Brockman的衣著開始聊起,小O不斷提出新的問題,小N都一一解答。接著,他們又談?wù)摿朔块g的風(fēng)格、布置和光線,甚至小N還意識到了Brockman正站在上帝視角凝視著TA們。


如果你看了這段視頻就會發(fā)現(xiàn),畫面中出現(xiàn)了一個女人在Brockman身后做了些惡搞的手勢。這可不是亂入,是Brockman和女人串通好,專門給小N設(shè)計的一道“考題”。

就在小O和小N聊的正開心的時候,Brockman選擇加入,直接問有沒有看到什么不正常的地方。結(jié)果是小N直接識破了Brockman的小伎倆,直接復(fù)述出了女人在他身后做小動作的場景,小O聽了之后直接感嘆原來在這里享受樂趣的不只有我們兩個。Brockman把這句話當(dāng)成了夸贊,并對小O表示了感謝,還愉快地加入了TA們的對話。之后是最后也是最精彩的部分,在Brockman的指揮下,小O和小N根據(jù)剛才聊天的內(nèi)容,直接開啟了對唱模式。只過了簡單幾輪,銜接地就十分密切,而且旋律悠揚,音色也是和真人毫無二致。
最后視頻以Brockman唱出的一句Thank you結(jié)束,在視頻外的推文中他還透露新的語音對話功能將在數(shù)周內(nèi)向Plus用戶開放。

ebcac93a-1251-11ef-9118-92fbcf53809c.png


端到端訓(xùn)練,一個神經(jīng)網(wǎng)絡(luò)搞定語音文本圖像

正如奧特曼在發(fā)布會前所說,GPT-4o讓人感覺像魔法一樣,那么它是如何做到的呢?非常抱歉,這次非但沒有論文,連技術(shù)報告也不發(fā)了,只在官網(wǎng)Blog里有一段簡短的說明。在GPT-4o之前,ChatGPT語音模式由三個獨立模型組成,語音轉(zhuǎn)文本→GPT3.5/GPT-4→文本轉(zhuǎn)語音。我們也可以讓舊版ChatGPT語音模式自己講一下具體是怎么個流程。ebe410c0-1251-11ef-9118-92fbcf53809c.jpg這樣一來,整個系統(tǒng)的延遲足足有2.8秒(GPT-3.5)和5.4秒(GPT-4),而且丟失了大量的信息,它無法直接感受音調(diào)、多個說話者或背景噪音,也無法輸出笑聲、唱歌聲,或表達情感。ebfabea6-1251-11ef-9118-92fbcf53809c.jpgGPT-4o則是跨文本、視覺和音頻端到端訓(xùn)練的新模型,這意味著所有輸入和輸出都由同一個神經(jīng)網(wǎng)絡(luò)處理。在語音翻譯任務(wù)上,強于OpenAI專門的語音模型Whisper-V3以及谷歌和Meta的語音模型。ec8d0a68-1251-11ef-9118-92fbcf53809c.png在視覺理解上,也再次反超Gemini 1.0 Ultra與對家Claude Opuseca698d4-1251-11ef-9118-92fbcf53809c.png

雖然技術(shù)方面這次透露的消息就這么多了,不過也有學(xué)者評價。

一個成功的演示相當(dāng)于1000篇論文。

ecaabb4e-1251-11ef-9118-92fbcf53809c.png


One More Thing

除了OpenAI帶來的精彩內(nèi)容之外,也別忘了北京時間5月15日凌晨,谷歌將召開I/O大會。到時量子位將繼續(xù)第一時間帶來最新消息。另外根據(jù)網(wǎng)友推測,GPT-4o這么強,全都免費開放了,這是勸大家不續(xù)訂ChatGPT Plus了的意思嗎?那肯定不是啊~ecaef9f2-1251-11ef-9118-92fbcf53809c.png鑒于OpenAI春節(jié)期間在谷歌發(fā)布Gemini 1.5 Pro后半小時左右用Sora狙擊了一把,明天OpenAI還有新活也說不定呢?直播回放

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31711

    瀏覽量

    270511
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47791

    瀏覽量

    240578
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    360

    瀏覽量

    15536
收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI報告GPT-4o4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機構(gòu)OpenAI發(fā)布了一份事故報告,引起了業(yè)界的廣泛關(guān)注。報告中指出,OpenAI目前正面臨GPT-4o4o-mini這兩款重要模型性能下降的問題。 據(jù)OpenAI方面透露
    的頭像 發(fā)表于 01-23 10:22 ?457次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強大的 GPT-4o。本文將分享 2024 年 Chat
    的頭像 發(fā)表于 10-29 18:17 ?1303次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準(zhǔn)優(yōu)化AI應(yīng)用

    在8月21日的最新動態(tài)中,OpenAI 宣布了一項革命性的新功能,正式向企業(yè)用戶開放其頂尖AI模型GPT-4o的定制能力。這一舉措標(biāo)志著OpenAI在激烈的企業(yè)級AI應(yīng)用市場中邁出了重
    的頭像 發(fā)表于 08-21 16:06 ?520次閱讀

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對話新紀(jì)元

    OpenAI近日宣布了一項令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗到GPT-4o的語音模式,這一創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4
    的頭像 發(fā)表于 08-01 18:24 ?1284次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表現(xiàn)優(yōu)于
    的頭像 發(fā)表于 07-21 10:20 ?1197次閱讀
    OpenAI 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開發(fā)教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的強大工具,可用于自然語言處理和多模態(tài)任務(wù)。在國內(nèi)直聯(lián)使用這些服務(wù)需要一些配置和技巧。本文將詳細介紹GPT-4o模型以及如何獲取
    的頭像 發(fā)表于 06-08 00:33 ?5628次閱讀
    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT4o</b> API調(diào)用開發(fā)教程!

    開發(fā)者如何調(diào)用OpenAI的GPT-4o API以及價格詳情指南

    ?目前,OpenAI新模型GPT-4oGPT-4 Turbo的價格如下: GPT-4o 對比 GPT-4 Turbo GPT-4o 擁有與
    的頭像 發(fā)表于 05-29 16:00 ?1.3w次閱讀
    開發(fā)者如何調(diào)用OpenAI的<b class='flag-5'>GPT-4o</b> API以及價格詳情指南

    OpenAI 深夜拋出王 “ChatGPT- 4o”, “她” 來了

    功能和實際應(yīng)用。 GPT-4 turbo****的增強功能 ChatGPT-4o帶來了幾個值得注意的升級,增強了性能和可用性: · 更快的
    發(fā)表于 05-27 15:43

    Azure AI Studio現(xiàn)已支持提供GPT-4o API

    微軟公司在最近的Build 2024開發(fā)者大會上宣布了一個重要更新。據(jù)微軟CEO薩提亞·納德拉介紹,Azure AI Studio現(xiàn)已支持OpenAI開發(fā)的最新旗艦?zāi)P?b class='flag-5'>GPT-4o,并作為API提供。
    的頭像 發(fā)表于 05-22 11:45 ?847次閱讀

    GPT-4o更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    )等。OpenAI的CEO奧特曼稱之為“人類級別的響應(yīng)”。GPT-4o一出,各企業(yè)開始紛紛再度亮出“家伙什”了,微軟宣布投資40億歐元加碼AI領(lǐng)域、谷歌一夜發(fā)布十幾
    的頭像 發(fā)表于 05-22 08:04 ?497次閱讀
    <b class='flag-5'>GPT-4o</b>更像“人”,<b class='flag-5'>AI</b>“疾步”走向商業(yè)化應(yīng)用

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?701次閱讀

    OpenAI正式推出GPT-4o模型,支持實時音頻、視覺和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布了詳細演示,展示了兩部搭載GPT-4o的設(shè)備如何實現(xiàn)語音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?597次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機器人ChatGPT提供更強大、更經(jīng)濟的支持。GPT-4o是此前備受矚目的GPT-4模型的升級版,自推出以來已滿一年有
    的頭像 發(fā)表于 05-15 09:23 ?449次閱讀

    OpenAI全新GPT-4o能力!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7918次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進步。
    的頭像 發(fā)表于 05-14 11:17 ?580次閱讀