金桔
金币
威望
贡献
回帖0
精华
在线时间 小时
|
从一个本科实习生的视角,尝试回答一波:
1. 比较出色的工程能力:
大抵是源自古早openmmlab时代(mmcv,mmdetection,mmseg..)的技术积累和“独特”代码风格。pjlab有一大批工程师的日常工作是造各种轮子。
大模型时代,最重要莫过于基建问题,于是迫切需要一系列内部工具包来不断优化算法框架。期间的成果也部分开源出来,生态社区也在逐渐形成中:比如微调框架xtuner,大模型测评框架opencompass等等,封装严密,上手友好易用。
(代码好不好改,那又是另一个令人心碎的问题了。不过个人猜测,社区要求抛弃mmengine呼声还是蛮大的,代码变得更user friendly,乃至更researcher friendly是必然趋势)
这样做其实有很多潜在的好处:
- 代码的可维护性很好,更新迭代非常频繁。这点强于在学校小实验室里单打独斗,搞得代码只能去参考一些并不怎么高效的开源框架。
- Researcher乃至Intern都很容易借助这一条工具链,快速落地一些idea。当代码实现有困难时,也可以找对应的工程师团队对接,随时都可以问一些框架代码修改/实验超参经验/数据配比消融等等难得的工程经验。这个非常难得,若无有大量工程实践经验从何得知。于是发起paper来也是事半功倍。这样形成了一条正反馈闭环: 研究和工程互相反哺,携手互进。实际上,这也是最吸引我的一点,故而我没有选择去高校读博,而是来这里联培。
- 见贤思齐焉。能从一开始就培养比较成熟的代码实现能力。在学校里,我大三上写项目只会用什么pytorch lightning,llama factory哈哈哈哈(捂脸)。现在耳濡目染了不少分布式优化方法,看问题的视角也更加实际了,知道什么样的research是真需求,不再去沉迷于雕虫小技的"术",而是更愿意追求时代发展的脉络,弃术重"道"了
2. Research比较偏工程
显然,pjlab学术水平距离Openai,Anthropic,Deepmind,Meta FAIR还有不小差距,无需赘述。
国内大环境还是比较浮躁。希望有人能踏踏实实的,做有意思,有开创性的工作。老是去追赶别人的工作是比较无聊的事情
举例说明: 我一直很欣赏上面四家的可解释性工作,但在pjlab好像从来没见到该方向出色的工作(纯个人喜好问题)。此外,强化学习方向好像也是不温不火。
人数最多的最多的可能是数据侧(造各种benchmark,评测任务自然是非常重要且困难的),训练基建侧的团队(各种算法框架,训练,数据合成,这个也是费心费力)。显然,一言以蔽之,还是比较工程导向的。
现实的引力还是比较大的,比较天马行空的想法可能还是难以孤注一掷的投入(当然,脚踏实地,也有其道理,天马行空的idea也要有其现实意义才行)
LLM团队的目标大抵是对标llama,继续做预训练的决心看上去很大。VLM团队此前internvl很出色,恐怕是pjlab的一张名片了。(要和Qwen2 vl对比又是另外一个故事了,总是长江后浪推前浪嘛)
- 上海ailab和大厂ailab的区别还是比较明显的,(deepseek技术一直比较潮,qwen家产品一向性能很好,pjlab可能不太主打卖模型? doge)。
- 和高校对比也是比较明显的。学校里实验室喜欢玩lora微调,各种幻觉,无论是乍一看还是再一看都很水水的agent,我实在提不起兴趣。(还有各种XPO,这个更有意义一点,但感觉已经卷麻了,用起来伯仲之间,算法的提升远小于更高质量的数据)
3. 实习体验杂谈
- 显卡超级多。好棒,真棒,太棒了。(美中不足是集群管理略微混乱,建议给新入职朋友搞点集群操作课,总有人糊里糊涂的搞错)
- 外界学术交流还算比较多。会不定期邀请外面的学者来访谈。希望未来可以加大交流频率和力度
- 忍不住对比一下MSRA。有一说一,想念微软的茶水间和食堂,懂得都懂(流泪),MSRA浓浓的人文关怀味,非常怀念。不过ailab在生活上也做的越来越好了,开始有各种实习生娱乐活动小群,不过和微软多年的沉淀还是比较难比的啦。做科研卷起来的时候,自然也不太在意这些,毕竟,"以中有足乐者,不知口体之奉不若人也"。
- 一个很好的趋势是,原本组间界限分明的情况正在逐渐被打破。各组各自为战的情况在过去比较普遍,现在开始类似业务的部门开始合并了? 如果所有做大模型研究的人都能被放在一起,无论是VLM还是LLM,应该都能互相有所裨益。
希望上海ailab越来越好 |
|