欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當(dāng)“導(dǎo)演”

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-12-01 01:08 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/李彎彎)11月29日,美國AI初創(chuàng)公司Pika labs發(fā)布了全新的文生視頻產(chǎn)品Pika 1.0,這款產(chǎn)品能夠生成和編輯3D動畫、動漫、卡通和電影。用Pika 1.0制作視頻幾乎不需要任何門檻,用戶只需要輸入一句話,就可以生成想要的各種風(fēng)格的視頻,并通過簡單的描述,更改視頻中的形象和風(fēng)格。

一句話生成視頻,顛覆傳統(tǒng)視頻制作

Pika成立于今年4月,創(chuàng)始人郭文景和聯(lián)合創(chuàng)始人兼CTO Chenlin Meng,都是斯坦福大學(xué)AI Lab博士生。一位專注于NLP(自然語言處理)和圖形學(xué),另一位主攻計算機(jī)視覺方向,都有生成式AI的學(xué)術(shù)經(jīng)歷。今年7月,Pika在Discord推出服務(wù)器,截至目前用戶已超50萬,每周能生成數(shù)百萬個視頻。

11月29日,Pika Labs正式推出了最新一代視頻生成模型Pika 1.0。Pika 1.0 不僅對視頻生成質(zhì)量進(jìn)行了提升,還支持 3D 動畫、動漫或電影等多種風(fēng)格視頻。此外,用戶還能夠通過 Pika 實現(xiàn)畫布延展、局部修改、視頻時長拓展等編輯需求。

具體來看,Pika 1.0的效果有多驚艷。視頻生成方面,可以通過文字生成視頻,也可以圖片生成視頻。比如,只需輸入提示詞“馬斯克穿著太空服,3D動畫”,一個動畫版本、穿著太空服準(zhǔn)備乘坐火箭上太空的馬斯克即可生成,外形、動作、背景等元素均十分逼真,可以媲美花大成本制作的3D動畫影像。





這是文字生成視頻,另外也可以圖片配合提示詞生成視頻,圖片為第一幀,再用文字控制動畫變化效果和鏡頭。比如,可以輕松讓名畫《最后的晚餐》變得生動起來。



除了文字生成視頻,圖片生成視頻,還可以通過原有視頻生成更高質(zhì)量的視頻。其展示了一個騎馬的黑白原視頻,通過Pika 1.0生成了物種不同風(fēng)格的動畫,幾乎涵蓋現(xiàn)有電影和動畫大部分風(fēng)格,看上去質(zhì)量效果非常好。



除了視頻生成,Pika 1.0還能夠進(jìn)行視頻編輯,用戶只需要選定編輯區(qū)域,就能根據(jù)文本提示詞修改特定區(qū)域。比如,不喜歡視頻中的衣服,可以輕松更換衣服的款式和顏色;只需要用鼠標(biāo)框一下,輸入“一副酷酷的太陽鏡”,馬上就能給視頻中的狒狒帶上墨鏡。




此外,Pika 1.0還能夠修改輕松修改視頻尺寸。雖然這個技術(shù)在AI繪畫領(lǐng)域早就實現(xiàn)了,但是目前Pika第一個將其用在視頻領(lǐng)域。



總的來說,Pika 1.0的功能包括:文本生成視頻、圖像生成視頻功能,只需要輸入簡單的文本描述,或上傳圖像配合文字,就可以創(chuàng)建高質(zhì)量的視頻;視頻風(fēng)格轉(zhuǎn)換;對視頻內(nèi)容進(jìn)行編輯,更改或者增加圖片里面的元素,還能夠更改視頻的寬高比尺寸等。

據(jù)稱,當(dāng)前Pika Labs團(tuán)隊僅有4位全職成員,但兼具學(xué)術(shù)和創(chuàng)意兩個領(lǐng)域的頂尖人才。Demi Guo 和 Chenlin Meng 同為 Stanford AILab 的博士研究人員,擁有頂尖的學(xué)術(shù)和科研經(jīng)歷;Karli Chen 作為團(tuán)隊第三位創(chuàng)始人及創(chuàng)始工程師擁有CMU的ML&CV碩士學(xué)位,Karlin 本科期間就在機(jī)器視覺公司 SenseTime 擔(dān)任工程師;Matan Cohen-Grumi則在創(chuàng)意領(lǐng)域經(jīng)驗豐富。

在正式推出Pika 1.0的同一天,Pika也公開透露,目前已完成A輪融資,籌資總額達(dá)到5500萬美元。投資人包括OpenAI創(chuàng)始成員安德烈·卡帕西(Andrej Karpath)、Github前CEO納特·弗里德曼(Nat Friedman)、Quora創(chuàng)始人亞當(dāng)·迪安杰羅(Adam D'Angelo)等。

目前Pika 1.0已經(jīng)開啟申請試用,該公司表示,正在努力修改算法進(jìn)一步改進(jìn)模型,并開發(fā)用于過濾受版權(quán)保護(hù)材料的模型。另外,目前Pika的產(chǎn)品還是免費(fèi)的,但最終可能會推出分層訂閱模式,付費(fèi)用戶能享受更多功能。同時Pika也在開啟招聘計劃,包括技術(shù)、產(chǎn)品、運(yùn)營等,預(yù)計明年會將團(tuán)隊擴(kuò)充到20人。

AI視頻生成技術(shù)的前景及挑戰(zhàn)

近段時間,除了Pika 1.0,已經(jīng)有多家企業(yè)發(fā)布新的視頻生成工具。11月16日,社交媒體巨頭Meta發(fā)布工具Emu Video,能夠基于文本和圖像輸入生成視頻剪輯。幾乎同時,字節(jié)跳動發(fā)布了PixelDance模型,通過描述(純文本)+首幀指導(dǎo)(圖片)+尾幀指導(dǎo)(圖片),即可生成包含復(fù)雜場景和動作的視頻。

11月21日,Runway動態(tài)筆刷Motion Brush面世,該工具發(fā)布的時候引起不小的關(guān)注,其特別之處在于,只需在任意圖片上抹一筆,就能讓其變成一段動態(tài)視頻。作為最早探索視頻生成領(lǐng)域的領(lǐng)頭羊之一,過去一年,Runway先后發(fā)布了 Gen1、Gen2,此次推出的Motion Brush在可靠性上更是又向前邁進(jìn)一大步。



11月24日,專注于開發(fā)人工智能產(chǎn)品的初創(chuàng)公司Stable AI發(fā)布了其最新的AI模型Stable Video Diffusion(穩(wěn)定視頻擴(kuò)散模型),這款模型能夠通過現(xiàn)有圖片生成視頻,是基于之前發(fā)布的Stable Diffusion文本轉(zhuǎn)圖片模型的延伸。

除此之外,Adobe也在文生視頻領(lǐng)域有新動作。日前,該公司宣布已收購AI視頻生成創(chuàng)業(yè)公司Rephrase.ai,后者主要通過AI技術(shù)將文本轉(zhuǎn)換為虛擬形象視頻。Adobe高級副總裁兼總經(jīng)理Ashley Still稱,Rephrase.ai團(tuán)隊在生成式AI音視頻技術(shù)、文本到視頻生成工具方面的專業(yè)知識將擴(kuò)展Adobe的生成式視頻功能。

從Adobe收購Rephrase.ai,及國內(nèi)外企業(yè)紛紛布局AI視頻生成領(lǐng)域,可以看到,AI生成內(nèi)容大潮已經(jīng)逐漸從文本和圖片,進(jìn)一步轉(zhuǎn)向視頻生成。

當(dāng)前,短視頻、短劇市場方興未艾,AI視頻技術(shù)的不斷成熟和應(yīng)用,有望讓視頻創(chuàng)作更簡單,成本更低。正如在Pika 1.0發(fā)布之際,OpenAI創(chuàng)始成員安德烈·卡帕西(Andrej Karpathy)在X平臺發(fā)文感慨“每個人都能成為多模式夢想的導(dǎo)演,就像《盜夢空間》中的建筑師一樣?!?br />
全世界最大的AI開源社區(qū)Hugging Face的CEO克萊門特(Clement)表示:“2024年,某個主流媒體領(lǐng)域?qū)涑釧I生成的內(nèi)容?!?br />
AI視頻生成有著可想象的美好前景,同時當(dāng)前來看,它也存在一些挑戰(zhàn)。它與此前的AI生成圖片有所不同,Pika Labs創(chuàng)始人Demi接受媒體采訪時表示,視頻有很多和圖片不一樣的問題,比如要確保視頻的流暢性、確保動作,視頻比圖像更大,需要更大的GPU內(nèi)存,視頻生成需要考慮邏輯問題,還要考慮如何生成,是一幀一幀生成,還是一起生成,現(xiàn)在很多模型是一起生成,生成的視頻就很短。如果要一幀一幀生成,要怎么做,其實視頻生成有很多圖片生成不會面臨的新的技術(shù)問題。

該公司的聯(lián)合創(chuàng)世人Chenlin談到,雖然視頻的每一幀都是一張圖片,但比圖片困難得多。每一幀的生成質(zhì)量要高,相鄰幀之間還要有關(guān)聯(lián)性。當(dāng)視頻很長時,確保每一幀都協(xié)調(diào)一致是個相當(dāng)復(fù)雜的問題。在訓(xùn)練時,處理視頻數(shù)據(jù)時要處理多張圖片,模型需要適應(yīng)這種情況。比如,如何將100幀圖片傳輸?shù)紾PU上是一個挑戰(zhàn)。而在推理時,由于涉及到生成大量幀,推理速度相對于單張圖片會更慢,計算成本也會增加。

從目前的情況來看,雖然現(xiàn)在的AI視頻生成已經(jīng)展現(xiàn)出很驚人的效果,不過仍然面臨新的挑戰(zhàn),還有需要突破的地方,比如視頻的時長,清晰度等等,相關(guān)企業(yè)對此還需要持續(xù)探索。

總結(jié)

過去兩年,生成式AI大潮席卷全球,圖片生成率先火出圈并獲得大量使用,不少AI創(chuàng)業(yè)企業(yè)也因此實現(xiàn)盈利。如今,AI視頻生成逐漸成為創(chuàng)業(yè)企業(yè)及資本追逐的新熱點(diǎn),目前已經(jīng)有眾多企業(yè)推出相關(guān)產(chǎn)品,隨著Pika 1.0的發(fā)布,AI視頻生成技術(shù)也走上了一個新高度??梢韵胂?,隨著技術(shù)的不斷突破,AI視頻生成技術(shù)將短視頻、短劇等行業(yè)帶來新的可能。








聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI又打出王炸!一句話生成60秒視頻,馬斯克:人類認(rèn)輸吧

    游戲中原意為稱贊對方打得不錯,但目前主流的含義是代表認(rèn)輸退出)。 ? 文字生成視頻的AI模型其實之前也有不少,比如去年11月美國AI初創(chuàng)公司Pika Labs發(fā)布的Pika
    的頭像 發(fā)表于 02-19 09:02 ?3922次閱讀
    OpenAI又打出王炸!<b class='flag-5'>一句話</b><b class='flag-5'>生成</b>60秒<b class='flag-5'>視頻</b>,馬斯克:人類認(rèn)輸吧

    騰訊混元大模型上線并開源文生視頻能力

    近日,騰訊宣布其混元大模型正式上線,并開源了項令人矚目的能力——文生視頻。該大模型參數(shù)量高達(dá)130億,支持中英文雙語輸入,為用戶提供了更為便捷和多樣化的視頻生成體驗。 據(jù)官方介紹,騰
    的頭像 發(fā)表于 12-04 14:06 ?245次閱讀

    晶科能源N型TOPCon技術(shù)為什么領(lǐng)跑行業(yè)

    晶科能源在N型TOPCon的領(lǐng)導(dǎo)者地位,用一句話形容就是:領(lǐng)先行業(yè)6個月!
    的頭像 發(fā)表于 11-21 11:08 ?423次閱讀
    晶科能源N型TOPCon技術(shù)為什么<b class='flag-5'>能</b>領(lǐng)跑行業(yè)

    開關(guān)電源布線 一句話:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    開關(guān)電源在布線上最大的特點(diǎn)是拓?fù)湟鸬母哳l(高壓)強(qiáng)電流與控制級的弱電信號交織在起,首先要保證強(qiáng)電流的存在不干擾電源內(nèi)部的控制信號,其次要盡量減少對外部的干擾(EMC)。一句話:要運(yùn)行最穩(wěn)定、波形
    的頭像 發(fā)表于 10-28 14:06 ?1472次閱讀
    開關(guān)電源布線 <b class='flag-5'>一句話</b>:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    Sora還在PPT階段,“中國版Sora”已經(jīng)開放使用了!

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)今年春節(jié)期間,OpenAI的AI文字生成視頻模型Sora驚艷全世界,極高的視頻生成效果、長達(dá)60秒的視頻生成長度,讓過去
    的頭像 發(fā)表于 06-17 09:07 ?3514次閱讀

    一句話讓你理解線程和進(jìn)程

    今天給大家分享下線程與進(jìn)程,主要包含以下幾部分內(nèi)容:一句話說明線程和進(jìn)程操作系統(tǒng)為什么需要進(jìn)程為什么要引入線程圖說明線程和進(jìn)程的關(guān)系一句話讓你理解進(jìn)程和線程進(jìn)程:是指?個內(nèi)存中運(yùn)?
    的頭像 發(fā)表于 06-04 08:04 ?1310次閱讀
    <b class='flag-5'>一句話</b>讓你理解線程和進(jìn)程

    智譜AI正研發(fā)對標(biāo)Sora的國產(chǎn)文生視頻模型

    智譜AI,這家國內(nèi)估值超過200億的AI大模型獨(dú)角獸企業(yè),正全力投入研發(fā)款與OpenAI的Sora相媲美的國產(chǎn)文生視頻模型。據(jù)公司內(nèi)部人士透露,該模型預(yù)計最快將在今年內(nèi)發(fā)布,將成為AI視頻生
    的頭像 發(fā)表于 05-07 09:22 ?564次閱讀

    文生視頻,硬件成本是最大攔路虎

    的問題,畢竟個能夠?qū)崿F(xiàn)文生視頻的應(yīng)用,服務(wù)器成本要遠(yuǎn)遠(yuǎn)高于GPT類應(yīng)用。 ? 從文生視頻模型的配置談硬件成本 ? 對于目前市面上的
    的頭像 發(fā)表于 02-26 09:13 ?3991次閱讀

    OpenAI文生視頻模型Sora要點(diǎn)分析

    近日,美國人工智能公司OpenAI發(fā)布了首個視頻生成模型Sora。不同于此前許多AI大模型文生圖或視頻時,會出現(xiàn)人物形象前后不致等問題
    的頭像 發(fā)表于 02-22 16:37 ?1180次閱讀
    OpenAI<b class='flag-5'>文生</b><b class='flag-5'>視頻</b>模型Sora要點(diǎn)分析

    OpenAI新推文生視頻大模型Sora引發(fā)熱議,首批受益者涌現(xiàn)

    在科技浪潮中,OpenAI再次引領(lǐng)潮流。繼2023年的文生文大語言模型之后,2024年春節(jié)期間,OpenAI推出的文生視頻大模型Sora迅速成為全球科技界的焦點(diǎn)。這款模型能夠根據(jù)文本內(nèi)容生成
    的頭像 發(fā)表于 02-22 14:15 ?781次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當(dāng)?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術(shù)報告 ,正式入局視頻生成領(lǐng)域
    的頭像 發(fā)表于 02-21 16:45 ?1388次閱讀

    Sora助推OpenAI估值飆升275%

    近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI發(fā)布了其首個文生視頻模型——Sora。這款模型具備令人驚嘆的能力:用戶只需通過一句話,便能生成長達(dá)1分鐘的高清
    的頭像 發(fā)表于 02-20 14:12 ?649次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽(yù)的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)
    的頭像 發(fā)表于 02-19 11:03 ?1031次閱讀

    OpenAI推出全新文生視頻模型Sora

    近日,全球領(lǐng)先的人工智能研究公司OpenAI宣布推出其最新的文生視頻大模型“Sora”。該模型具有突破性的功能,能夠根據(jù)用戶提供的文本指令或靜態(tài)圖像,自動生成長達(dá)1分鐘的高清視頻。這些
    的頭像 發(fā)表于 02-19 10:56 ?900次閱讀

    奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型Sora正式亮相

    ;可以說是王炸級的文生視頻大模型。目前Sora模型正面向部分成員開放,以評估關(guān)鍵領(lǐng)域的潛在危害或風(fēng)險。 Sora是種擴(kuò)散模型,相較其他模型,看起來似乎是已經(jīng)具備了“理解”和“思考”能力。而且Sora不僅僅是只能把文本指令
    的頭像 發(fā)表于 02-18 17:41 ?1042次閱讀