阿里巴巴推出影片框架 Animate Anyone 2。這是一種新的角色圖像影片框架,能夠解決目前無法在影片中的角色與環境之間建立合理關聯。Animate Anyone 2 由輸入的影片中提取環境訊息,通過一種與形狀無關的遮罩策略來更好地描述角色與環境之間的關係,從而提高物件互動的真實性,最終能夠產生高品質的替換角色影片。

阿里巴巴推出影片框架 Animate Anyone 2。這是一種新的角色圖像影片框架,能夠解決目前無法在影片中的角色與環境之間建立合理關聯。Animate Anyone 2 由輸入的影片中提取環境訊息,通過一種與形狀無關的遮罩策略來更好地描述角色與環境之間的關係,從而提高物件互動的真實性,最終能夠產生高品質的替換角色影片。
KTransformers 透過先進的核心優化技術來增強 Transformers 的體驗。KTransformers 特別為硬件資源有限的本地部署,並支援異構運算,例如量化模型的 GPU/CPU 卸載,令到不同的架構處理器可以協同工作。KTransformers 亦提供了一個 YAML 範本來呼叫特殊的優化指令。结果可以令 RTX 4090 本地運行 DeepSeek-R1、V3 的 671 B 满血版,以 24 Gig VRam 最高推理速度仍達到 14 tokens/s。當然,你亦需要保証足夠 D Ram。
DeepSeek-VL2 使用 MoE 混合專家 Mixture-of-Experts 的視覺語言模型,主要在於提升多模態理解能力。DeepSeek-VL2 在視覺問答、光學字元識別、文件理解和視覺基礎等方面表現出色。模型包含三個版本:Tiny、Small 和 Base,並提供了模型下載、Gradio web 介面範例。
這影片教你如何使用 DeepSeek AI 和 Crawl4AI 驅動網頁爬蟲,甚至無需編寫任何程式,就能輕鬆地從任何網站收集結構化數據。影片同時亦展示了一個實際案例,講解點樣為公司尋找潛在客戶,包括地址、企業名稱和聯絡方式等資訊,然後將數據匯入試算表進行整理和分析。
Transformer Lab 是個免費的開源 LLM 工作平台,方便進行微調、評估、匯出和測試,並支援唔同的推理引擎和平台。Transformer Lab 適用於擁有 GPU 或 TPU 的電腦,亦支援 MLX 的 M 系列的蘋果電腦。主要功能包括下載開源模型、智能聊天、計算嵌入、創建和下載訓練數據集、微調和訓練 LLM、以及使用 R A G 與文件互動。
Sonic 不單將音訊對應到嘴型,而是更全面理解音訊的內容和情感,進而產生更自然、更加生動的人像動畫。可以配合 ComfyUI_Sonic 使用。項目亦包括 Realtalk 即時同逼真的音訊驅動人臉生成技術。新增 frame number 選項,可以控制輸出影片的長度。亦可基於音頻長度。
分詞對訓練模型相當重要。簡單來說,就是將一段文本分割成很多單詞或者子單詞, 這些單詞或者子單詞將會通過一個表格被認知為名詞,專有名詞,或是助語詞之類,也就是將文章的詞彙轉為有意義的關建數值。這個 HuggingFace 的介紹包含了 CoLab 嘅筆記,你可以直接試用不同的分詞技術。
影片旨在澄清外界對 AI 演算法工程師的誤解,並介紹了 AI 專案開發的實際情況和所需技能,強調了演算法工程師在專案中除了模型開發,也需要具備工程開發能力,並能根據專案需求靈活調整開發策略。
這部影片主要探討了大型語言模型(LLM)微調數據的整理方法,並針對微調優化提出了實用建議,核心問題包含:
影片內容重點
總體而言,這部影片內容豐富且深入淺出,對於希望了解大型語言模型微調數據整理和優化方法的觀眾來說,具有相當高的參考價值。
ACE++ 基於指令的擴散框架,只要輸入一張圖像即可生成與角色一致的新圖像,專門用來處理各種圖像生成和編輯任務。靈感來自 FLUX.1-Fill-dev 的輸入格式,以雙階段訓練方法來減少對圖像擴散模型進行微調所需的工作量。這框架提供了全面的模型集,涵蓋了完整微調和輕量級微調,在生成圖像品質和遵循提示能力方面展現了卓越的性能,可以廣泛應用於人像一致性、靈活指令描述和局部編輯等不同情境。