
「MS- Video-to-Video」係一種深度學習模型,可以將一段視頻轉換成另一種風格、場景轉換、動作等操作。例如,可以將一段日本動畫轉換成中國水墨畫風格,或者將一段街頭表演轉換成動畫風格。
MS-Vid2Vid-XL 和 Video-to-Video 第一階段相同,都是基於隱空間的視頻擴散模型(VLDM),且其共享相同結構的時空UNet(ST-UNet),其設計細節延續我們自研 VideoComposer,具體可以參考其技術報告。
「MS- Video-to-Video」係一種深度學習模型,可以將一段視頻轉換成另一種風格、場景轉換、動作等操作。例如,可以將一段日本動畫轉換成中國水墨畫風格,或者將一段街頭表演轉換成動畫風格。
MS-Vid2Vid-XL 和 Video-to-Video 第一階段相同,都是基於隱空間的視頻擴散模型(VLDM),且其共享相同結構的時空UNet(ST-UNet),其設計細節延續我們自研 VideoComposer,具體可以參考其技術報告。
Moore-AnimateAnyone 是一個開放源碼的專案,由 MooreThreads 創建與維護。此專案的目的是讓用戶能夠用簡便的方式來動畫化任何人物。
透過這個軟件,用戶可以將靜態的圖片或者是人物照片轉化成動態的動畫。它能讓角色栩栩如生,仿佛擁有了自己的情感和行動,這對於動漫創作者、游戲開發者或是任何需要虛擬人物動畫的創意工作者來說,都是一個非常有用的工具。
該平台的設計考慮到了易用性,即便是沒有編程經驗的人也可以輕鬆上手。用戶可以自定義角色的行為,並將它們應用於不同的娛樂或教育場景中。
此外,Moore-AnimateAnyone 專案鼓勵開源協作。這意味著任何有興趣的開發者都可以加入這個專案,通過貢獻代碼、文檔、反饋和維護等方式來完善這一工具。
Taiwan LLM 基於 Meta Llama 2 的全參數微調模型技術,融合台灣本土的文本資料,包括公開的百科、新聞、小說、雜誌以及社群討論等,涵蓋超過 200 億個繁體中文字,使大型語言模型能對台灣地區的問題回答得更精確
Taiwan-LLM 是一個基於 Meta/LLaMa-2 ,適用於繁體中文應用。
台灣-LLM v2.0 13B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。
台灣-LLM v2.0 7B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。
台灣-LLM v1.0 13B 對超過 50 億個標記進行了預訓練,並對超過 49 萬個傳統普通話對話進行了指令調整。
香港中文大學(深圳)、上海人工智慧實驗室和深圳大數據研究院聯合開發。
(more…)要避免 GPT 出現越來越嚴重的錯誤內容,唯有不斷改進現有的演算法。我相信 Bard 採用 Gemini 的 Multimodol 模型就是一種新嘗試。
Google Bard 最初是基於 LaMDA,但後來轉用 PaLM 和 Gemini。
因此,儘管 LaMDA 在早期開發中起到了至關重要的作用,但目前依賴 Gemini 的能力來生成文本、翻譯語言、創作不同類型的創意內容,以及以一種信息豐富的方式回答您的問題。
以下是總結這些模型差異的一個表格:
(more…)PromeAI 十分類似 RunwayML。除一般 txt2img、txt2video(暫時完全免費)、img2video 功能,亦提供料多種創意模式:
AI Supermodel Generation – 上傳一張人體模型或業餘人像照片,馬上可建立多種風格和背景。目前版本支援個人真人照片或帶有臉部和四肢的照片。
Creative Fusion – 將草圖與藝術風格融合,創造出獨特且令人驚嘆的藝術品。而且可調整強度以控制影像與所選樣式之間的混合程度。
Background Diffusion – 自動移除背景並根據模板或文字產生理想的背景。而且您可以調整主要部分的大小和位置,以獲得更理想的效果。
Image Variation – 這是 img2img,產生具有相似風格、佈局、視角和感官體驗的圖像。而且您可以控制相似度。
Outpainting – 根據比例或尺寸擴展圖像內容。而且您可以調整原來相片的位置來控制擴展方向。 避免一次將面積擴大太多。
(more…)比較 6 個亞洲人模型
人工智慧的力量正進入第三維度。 使用提示產生 3D 物件、動畫和紋理。 在人工智慧的幫助下,更快地設計並觀看您的想法變為現實。
(more…)