(相關資料圖)
1. 1800億參數,世界頂級開源大模型Falcon官宣!碾壓LLaMA 2,性能直逼GPT-4
一夜之間,世界最強開源大模型Falcon 180B引爆全網!
1800億參數,Falcon在3.5萬億token完成訓練,直接登頂Hugging Face排行榜。
基準測試中,Falcon 180B在推理、編碼、熟練度和知識測試各種任務中,一舉擊敗Llama 2。
2. Meta的Flamera頭顯對增強現實有了新的愿景
3. 騰訊混元大模型正式亮相,我們搶先試了試它的生產力
4. GitHub熱榜登頂:開源版GPT-4代碼解釋器,可安裝任意Python庫,本地終端運行
5. ReVersion|圖像生成中的Relation定制化
6. 神經網絡大還是???Transformer模型規模對訓練目標的影響
———————End———————
點擊閱讀原文進入官網
關鍵詞: