近期網絡上關于某位明星的黑料曝光引發了廣泛討論,許多網友紛紛表示對此事感到震驚。隨著各類爆料的陸續出現,事件的真相似乎變得越來越撲朔迷離,不同觀點在社交媒體上交鋒。無論是對事件的支持還是反對,公眾對此的關注顯然已經超出了個人隱私的范疇,成為了輿論的焦點。
新京報貝殼財經訊(記者羅亦丹)“信任我,這是你能用到的最強壯的視覺生成模型。”4月15日,快手高檔副總裁、社區科學線負責人蓋坤在可靈2.0模型發布會上說。
這是在可靈1.0發布10個月后,快手方面臨可靈全系模型的一次重要晉級,包含文生圖視頻“可圖大模型2.0”,以及視頻生成大模型“可靈大模型2.0”。蓋坤介紹,可靈2.0模型在動態質量、語義呼應、畫面美學等維度,堅持全球搶先;可圖2.0模型在指令遵從、電影質感及藝術風格體現等方面明顯提高。
貝殼財經記者注意到,可靈2.0還上線了一種能夠將文字、圖片、短視頻乃至MMW等不同格式文件結合起來一同修改的新交互形式“MVL(Multi-modal Visual Language直譯為多模態視覺言語)”。
據了解,當時視頻生成首要分文生視頻和圖生視頻兩種,快手副總裁、可靈AI負責人張迪就發表,85%的視頻創造經過圖生視頻完結。有AI創造者告知記者,當時業界干流的視頻制造方法是首要經過文字生成圖片,再經過圖片生成視頻。
而在蓋坤的演示中,經過MVL方法,用戶能夠結合圖畫參閱、視頻片段等多模態信息,將腦海中的多維度雜亂構思傳達給AI,而不僅僅是文字的提示句子。如下圖所示,用戶運用AI生成視頻時,在提示詞中也能夠夾藏圖片或視頻。
快手高檔副總裁、社區科學線負責人蓋坤演示多模態交互方法。新京報貝殼財經記者羅亦丹/攝。
“咱們的理念是致力于研制很強壯的根底模型,一起致力于界說一個人和AI更齊備的交流方法,而這背面,咱們的愿景是讓每個人都能用AI講出好故事,期望這個希望提前成真。”蓋坤說。
修改 陳莉 校正 柳寶慶。