(相關(guān)資料圖)
1. 1800億參數(shù),世界頂級開源大模型Falcon官宣!碾壓LLaMA 2,性能直逼GPT-4
一夜之間,世界最強開源大模型Falcon 180B引爆全網(wǎng)!
1800億參數(shù),F(xiàn)alcon在3.5萬億token完成訓(xùn)練,直接登頂Hugging Face排行榜。
基準測試中,F(xiàn)alcon 180B在推理、編碼、熟練度和知識測試各種任務(wù)中,一舉擊敗Llama 2。
2. Meta的Flamera頭顯對增強現(xiàn)實有了新的愿景
3. 騰訊混元大模型正式亮相,我們搶先試了試它的生產(chǎn)力
4. GitHub熱榜登頂:開源版GPT-4代碼解釋器,可安裝任意Python庫,本地終端運行
5. ReVersion|圖像生成中的Relation定制化
6. 神經(jīng)網(wǎng)絡(luò)大還是小?Transformer模型規(guī)模對訓(xùn)練目標的影響
———————End———————
點擊閱讀原文進入官網(wǎng)
關(guān)鍵詞: