【AI】多模态大模型在医疗中的应用
多模态大模型在医疗领域的进展
主要应用方向
前几天刚进行了体检,其中有个项目是AI眼底检测,说白了就是根据眼底的成像图,使用大模型进行解读,并三甲医生人工检查结果,并给到一个报告。我觉得这个方向很有意思,任何人或多或少都会有医疗的需求,市场潜力本身就很大。我私以为,医疗是一个经验科学,见过的疑难杂症越多,越有可能做出正确的诊断。而任何医生都不可能有大模型见过的数据多,所以这肯定是一个非常有潜力的方向。同时最近也是看到几篇关于医疗领域的多模态大模型的论文,就借机会讲一下。
技术路径
Agent-based 问诊机器人:
比如MedAgent-Pro这篇文章,就结合了Agent和Reasoning Model到问诊的流程中,从而在降低了问诊幻觉的同时,给到真实情况下医生可能的建议...
【AI】OmniAlign - 上海Ai Lab的VLM工作
字节DAPO解决了很多我对R1的困惑
困惑来自哪里
在最开始,我比较质疑deepseek的tech report上Response length的test-time scaling曲线,我认为仅在Format reward和acc reward的作用下,很难学习到这样的曲线,除非数据就是这样组织的(base Model能力足够强),训练只是从数据中学习到了这样的pattern而已;
但紧接着第二个问题,假设训练数据中就存在这样的pattern,则RL算法就无关轻重,只要是有效的RL算法,能学习到训练数据的pattern即可;重要的还是组织reasoning的数据;
但GRPO是一个能学到这种pattern的算法吗?
首先考虑reward func...
【AI】OmniAlign - 上海Ai Lab的VLM工作
OmniAlign - 模型自己调,数据我给你
TLDR
标题:OmniAlign-V: Towards Enhanced Alignment of MLLMs with Human Preference
时间:2025.02.06
作者团队:上海AI Lab
有用指数:⭐️⭐️⭐️⭐️⭐️
简单评价:
优点:开源界的老实人,搞了SFT和RL的数据,还放出来一个Human Alignment的Benchmark,数据和模型都开源给你,剩下的自己训练去吧。
Existing Gap
现在的Benchmark,都是在基础能力上测试,但是在人类对齐上(广义的inst...
【Blog】Deepseek R1 Sharing
trainer.py
determine epochs
如果能拿到dataset length,则立刻改变Train epochs
# trainer.py #2205
if has_length(train_dataloader):
len_dataloader = len(train_dataloader)
num_update_steps_per_epoch = len_dataloader // args.gradient_accumulation_steps
num_update_steps_per_epoch = max(num_update_steps_per_epoch, 1)
...
【Blog】Deepseek R1 Sharing
Deepseek R1 Sharing
TLDR
打破LLM训练从Generalist到Reasoner的常规思路,使用RL先得到Reasoner,再经过SFT成为Generalist;
GRPO算法的高效性,让RL大规模训练取得了效果;
SFT with CoT数据的训练结果在原文中并未给出,但从最近一些复现工作和R1 distilled Qwen结果来看,SFT的作用可能比RL还大。
好的Base模型本身就有Aha Moment,但是是Superfacial的reflection,不具有提升Accuracy的能力,RL可以增强该能力。
R1-Zero是如何成为Reasoner的?
一句话:大基座(671B MoE模型) + Rule-based Rewa...
【Blog】李飞飞最新模型S1给我们哪些思考?
李飞飞最新模型S1给我们哪些思考?
TLDR
论文:s1: Simple test-time scaling
在MATH和AIME24的Benchmark上,通过在1k数据上纯SFT with CoT trace带来了27%的提升。并且观测到了Test-time scaling现象。并且数据不能多了,如果把所有SFT with CoT Trace都用上,效果反而很差。
这进一步说明了RL和SFT with CoT trace在模型推理能力的提升上消融实验做的还不够,认知有待继续提升。
他们的目标是什么?
尝试通过一些手段实现Test time scaling。
他们做了什么
在Qwen2.5-32B-Instruct模型上,用1K根据规则筛选出的有CoT Trace...
【Blog】有什么试图复现R1的工作?效果如何?
有什么试图复现R1的工作?效果如何?
TLDR
OpenR1是目前唯一一个试图严谨复现R1的工作,其他基于某个特定场景(例如24点)Toy project复现的,复杂度过低,即使出现了部分reasoning能力,但相比R1-Zero都存在巨大的Gap。R1-Zero在我看来的精髓是,各种不同的任务之间互有Boost,从而使RL出现了泛化。
这里并非贬损已有的复现工作,其中一些工作的结果非常有参考意义,后面会详细介绍。但是距离对R1的完整认知,还有非常远的路要走。
复现的定义是什么?
在某个大小的模型上,观测到Self-verification和Search solution space的涌现能力。同时在任务上的Score随着训练准确率提升。其中一个观测指标是,回复长度随时间增...
共计 154 篇文章,20 页。