【AI】小米MiMo大模型 - 做好数据,全是细节
小米多模态大模型 - 全是细节
结论
[!NOTE]
经过测试,MIMo会优先出reasoning,但是部分任务,例如OCR、Grounding,会直接跳过reasoning出结果,是否reason无法通过template控制,但调整prompt可能可以控制;
RL并非对所有任务都有用,实际上部分OCR任务存在掉点情况,在做Post-train时候的指标变化情况可以借鉴。
Architecture
MiMo完全就是Qwen2VL的架构,甚至官方repo里面的inference代码都是用的QwenVLConditionalGeneration,这个无可厚非,Qwen确实是基座框架比较优秀的一批,选择这个框架做数据scaling训练也是很多...
【AI】Qwen3 - 基模搞得好,变现少不了
SAP跟阿里合作,因为千问基模更好?
Qwen最新新闻
看到最近SAP(思爱普)要和阿里巴巴合作有感而发,AI大模型的发展到现在如火如荼,整体在内的从业者也获得了丰厚的汇报,但是这里一直笼罩着一层乌云就是,基础大模型的发展方向到底在哪里?未来从事基础模型研究的人员能否在更长期的发展上获得保障?企业选择做基础模型更倾向闭源模型还是开源?我看到通义千问的发展,和最近看到的新闻,我觉得阿里把千问大模型开源做对了,这就是真是硬通货。
最新的合作,会把通义千问接入SAP应用及云上合作拓展,全球最大企业软件接入通义。现在有非常多的企业,在做基于AI的企业转型甚至是业务转型,这是一个大趋势,因为不接入生成式AI的企业未来是死路一条。
SAP这次的合作方向有两个:第一是会把现在对外提供的核心业...
【AI】看完Seed-1.5-VL技术报告,立刻可尝试的几件事
看完Seed-1.5-VL,立刻要尝试的一些操作
结论
单独Pretrain ViT模块
ViT蒸馏:使用大的CLIP模型蒸馏一个小CLIP模型,直接用用两个模型的output features的cos距离作为loss,能极大提升模型的文档理解和OCR能力;
ViT Pretrain with 2D RoPE:使用SigLip loss和SuperClass loss 对ViT进行Pretrain;
全模态ViT Pretrain:提到了MiCo的训练框架,即把视频,音频,depth信息都用ViT统一Encode,和文本Encoder进行contrastive learning
...
【AI】RL给不了新知识,只是激发了Base Model的能力罢了
RL给不了新知识,只是激发了Base Model的能力罢了
今天的思考来自于这篇论文:Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model? 这篇文章的主题就是我的标题,RL不过是让Base Model朝向一个更能给到正确答案的方向结题罢了,但实际上Base Model不会的题可能永远不会,会的偶尔能做对,RL能增加这个做对的概率。
Key Insights
尽管RL后的模型能够在pass@k(k=1)的情况下超越Base模型,但是Base Model在k的大小不做限制情况下,可能比RL后的模型pass率还高;
RL优化的,只是Bas...
【AI】多模态大模型在医疗中的应用
多模态大模型在医疗领域的进展
主要应用方向
前几天刚进行了体检,其中有个项目是AI眼底检测,说白了就是根据眼底的成像图,使用大模型进行解读,并三甲医生人工检查结果,并给到一个报告。我觉得这个方向很有意思,任何人或多或少都会有医疗的需求,市场潜力本身就很大。我私以为,医疗是一个经验科学,见过的疑难杂症越多,越有可能做出正确的诊断。而任何医生都不可能有大模型见过的数据多,所以这肯定是一个非常有潜力的方向。同时最近也是看到几篇关于医疗领域的多模态大模型的论文,就借机会讲一下。
技术路径
Agent-based 问诊机器人:
比如MedAgent-Pro这篇文章,就结合了Agent和Reasoning Model到问诊的流程中,从而在降低了问诊幻觉的同时,给到真实情况下医生可能的建议...
【AI】OmniAlign - 上海Ai Lab的VLM工作
字节DAPO解决了很多我对R1的困惑
困惑来自哪里
在最开始,我比较质疑deepseek的tech report上Response length的test-time scaling曲线,我认为仅在Format reward和acc reward的作用下,很难学习到这样的曲线,除非数据就是这样组织的(base Model能力足够强),训练只是从数据中学习到了这样的pattern而已;
但紧接着第二个问题,假设训练数据中就存在这样的pattern,则RL算法就无关轻重,只要是有效的RL算法,能学习到训练数据的pattern即可;重要的还是组织reasoning的数据;
但GRPO是一个能学到这种pattern的算法吗?
首先考虑reward func...
【AI】OmniAlign - 上海Ai Lab的VLM工作
OmniAlign - 模型自己调,数据我给你
TLDR
标题:OmniAlign-V: Towards Enhanced Alignment of MLLMs with Human Preference
时间:2025.02.06
作者团队:上海AI Lab
有用指数:⭐️⭐️⭐️⭐️⭐️
简单评价:
优点:开源界的老实人,搞了SFT和RL的数据,还放出来一个Human Alignment的Benchmark,数据和模型都开源给你,剩下的自己训练去吧。
Existing Gap
现在的Benchmark,都是在基础能力上测试,但是在人类对齐上(广义的inst...
共计 143 篇文章,18 页。