- 使用 PyTorch 實現基本的機器學習算法和深度神經網絡。
- 🖥️ 不需要任何設置,在瀏覽器中使用 Google Colab 運行所有程序。
- 📦 不僅僅是教程,而是學習產品級的面向對象機器學習編程。
Civitai 推出俱樂部
Civitai 本週推出了俱樂部 —— 一個為創作者提供類似 Patreon 平台,讓為 Creator 提供以 Buzz 貨幣與用家進行交易。讓創作者分享他們的獨家創作,並討論如何充分利用這些東西。
Civitai 為提供獨家內容的創作者提供更好的體驗,並為所有人的永續發展鋪平道路。 可是,Civitai 遇到了一些障礙,也看到了一些強烈反對。
最終 Civitai 以民主方式決定未來,讓所有用戶提出一些想法,集思廣益,可以幫助創作者實現永續發展。 也許這些的結合可以成為我們未來成功的秘訣?
台灣-繁體中文 LLM v2,包括 7B 和 13B 模型
Taiwan LLM 基於 Meta Llama 2 的全參數微調模型技術,融合台灣本土的文本資料,包括公開的百科、新聞、小說、雜誌以及社群討論等,涵蓋超過 200 億個繁體中文字,使大型語言模型能對台灣地區的問題回答得更精確
Taiwan-LLM 是一個基於 Meta/LLaMa-2 ,適用於繁體中文應用。
台灣-LLM v2.0 13B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。
台灣-LLM v2.0 7B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。
台灣-LLM v1.0 13B 對超過 50 億個標記進行了預訓練,並對超過 49 萬個傳統普通話對話進行了指令調整。
Amphion 多功能聲頻 LLM
香港中文大學(深圳)、上海人工智慧實驗室和深圳大數據研究院聯合開發。
(more…)Google Bard 2023 12 月更新
要避免 GPT 出現越來越嚴重的錯誤內容,唯有不斷改進現有的演算法。我相信 Bard 採用 Gemini 的 Multimodol 模型就是一種新嘗試。
Google Bard 最初是基於 LaMDA,但後來轉用 PaLM 和 Gemini。
- 2023 年 3 月:Bard 在有限的容量下推出,由 LaMDA 提供支持。
- 2023 年 5 月:Bard 擴展到其他國家,並轉向 PaLM,另一個來自 Google AI 的強大語言模型。
- 2023 年 10 月:Bard 採用 Gemini,這是一個針對對話任務而特別設計的更先進的 LLM。
因此,儘管 LaMDA 在早期開發中起到了至關重要的作用,但目前依賴 Gemini 的能力來生成文本、翻譯語言、創作不同類型的創意內容,以及以一種信息豐富的方式回答您的問題。
以下是總結這些模型差異的一個表格:
(more…)PromeAI 推出更高畫質 txt2video
PromeAI 十分類似 RunwayML。除一般 txt2img、txt2video(暫時完全免費)、img2video 功能,亦提供料多種創意模式:
AI Supermodel Generation – 上傳一張人體模型或業餘人像照片,馬上可建立多種風格和背景。目前版本支援個人真人照片或帶有臉部和四肢的照片。
Creative Fusion – 將草圖與藝術風格融合,創造出獨特且令人驚嘆的藝術品。而且可調整強度以控制影像與所選樣式之間的混合程度。
Background Diffusion – 自動移除背景並根據模板或文字產生理想的背景。而且您可以調整主要部分的大小和位置,以獲得更理想的效果。
Image Variation – 這是 img2img,產生具有相似風格、佈局、視角和感官體驗的圖像。而且您可以控制相似度。
Outpainting – 根據比例或尺寸擴展圖像內容。而且您可以調整原來相片的位置來控制擴展方向。 避免一次將面積擴大太多。
(more…)Merry Christmas 2023
比較 6 個亞洲人模型

Spline AI – 利用 AI 加快 3D 設計速度
人工智慧的力量正進入第三維度。 使用提示產生 3D 物件、動畫和紋理。 在人工智慧的幫助下,更快地設計並觀看您的想法變為現實。
(more…)什麼是 RAG (Retrieval-Augmented Generation)
大規模中文自然語言處理 nlp_chinese_corpus
語料庫將會不斷擴充。。。
一期目標:10個百萬級中文語料 & 3個千萬級中文語料(2019年5月1號)
二期目標:30個百萬級中文語料 & 10個千萬級中文語料 & 1個億級中文語料(2019年12月31日)
Update: 增加高質量社區問答json版(webtext2019zh),可用於訓練超大規模NLP模型;添加520萬翻譯語料(translation2019zh)。
1.維基百科(wiki2019zh),100萬個結構良好的中文詞條
2.新聞語料(news2016zh),250萬篇新聞,含關鍵詞、描述
3.百科問答(baike2018qa),150萬個帶問題類型的問答
4.社區問答json版(webtext2019zh),410萬個高質量社區問答,適合訓練超大模型
5.翻譯語料(translation2019zh),520萬個中英文句子對
中文的信息無處不在,但如果想要獲得大量的中文語料,卻是不太容易,有時甚至非常困難。在2019年初這個時點上,
普通的從業者、研究人員或學生,並沒有一個比較好的渠道獲得極大量的中文語料。筆者想要訓練一個中文的詞向量,
在百度和github上上搜索了好久,收穫卻很少:要麼語料的量級太小,要麼數據過於成舊,或需要的處理太複雜。
不知道你是否也遇到了這樣的問題?
我們這個項目,就是為瞭解決這一問題貢獻微薄之力。