1. Meta将于2024年第一季度发布LLaMA3。
项目代码:https://top.aibase.com/tool/wikichat
5️⃣ v0by Vercel 🎨
LLaVA是一个端到端训练的多模态大模型,它将视觉编码器和用于通用视觉和语言理解的Vicuna相结合,具备令人印象深刻的聊天能力。而CogAgent是在CogVLM基础上改进的开源视觉语言模型,拥有110亿个视觉参数和70亿个语言参数。
25. 使用 Chat GPT 生成视觉描述:Chat GPT 可以为视觉内容创建详细且引人入胜的描述,帮助视障用户访问。