
Fuli Luo(罗福莉) - Google 学术搜索 - Google Scholar
Proceedings of the 2018 Conference on Empirical Methods in Natural Language … Knowledgeable Storyteller: A Commonsense-Driven Generative Model for Visual Storytelling. Proceedings of the 57th...
罗福莉 - 百度百科
罗福莉,女,95后,出生于四川省,本科就读于 北京师范大学 计算机专业,硕士毕业于 北京大学计算语言学研究所 计算语言学专业 [3] [8]。 罗福莉2019年曾在国际顶级会议ACL上发表8篇论文,其中2篇为第一作者 [8]。 罗福莉的职业生涯始于阿里巴巴 达摩院,罗福莉主导开发了多语言预训练模型VECO,并推动了AliceMind的开源工作 [8]。 2022年,罗福莉转战 DeepSeek,参与了MoE大模型 DeepSeek-V2 的研发 [8]。 2024年12月,网传罗福莉被小米创始人雷军以千万年 …
罗福莉:天才AI少女“祛魅”记|“我更希望别人因为我的能力认识我” …
2022年5月17日 · 2019年,一位北大硕士,因在NLP国际顶会ACL 上发表 8 篇论文(其中2篇一作),曾登上知乎热搜,这也让亲自下场回答知乎问题的罗福莉本人,一夜成为了“知乎红人”,各种声音蜂拥而至,她也确实因此备受关注。 罗福莉把走红知乎归结于偶然,这让她有点受宠若惊甚至是害怕。 “ 是因为正好处在AI论文集中爆发的一个时代,而我又恰好被关注到了,不过是稀疏平常的一件事…… 但突然之间千奇百怪的机会都来了,有找我出书的、有找我录公开课的,甚至 …
罗福莉 - 知乎
2024年8月14日 · 目标和商业模式明确 对于OpenAI,目前的目标很明确:就是 all in AGI,一切研究围绕着探索通往AGI的路径。 而商业模式上也很简单:SaaS,直接给API,接口设计内部自 …
Who is Luo Fuli? The 29-Year-Old 'AI Prodigy' Behind DeepSeek’s …
2025年1月31日 · Discover how Luo Fuli, a 29-year-old AI researcher, is revolutionizing DeepSeek with cutting-edge NLP advancements, challenging AI giants like
Luo Fuli: The 29-Year-Old Principal Researcher Behind DeepSeek’s …
2025年1月28日 · The most famous member of DeepSeek is Luo Fuli, who recently received an offer of 10 million yuan (approximately $1.4 million USD) from Xiaomi. She has been nicknamed an “AI goddess” by Chinese media.
luofuli (Fuli Luo) - GitHub
Love coding, love life. luofuli has 85 repositories available. Follow their code on GitHub.
Who Is Luo Fuli, Baby-faced AI Prodigy Behind China's DeepSeek …
2025年1月29日 · Luo Fuli, a 29-year-old AI researcher, played a key role in developing DeepSeek, China's rising AI model. Her expertise in natural language processing has helped DeepSeek surpass ChatGPT in the...
Fuli Luo - OpenReview
Open Peer Review. Open Publishing. Open Access. Open Discussion. Open Recommendations. Open Directory. Open API. Open Source.
Fuli Luo - ACL Anthology
2025年3月23日 · Fuli Luo | Pengcheng Yang | Shicheng Li | Xuancheng Ren | Xu Sun | Songfang Huang | Fei Huang Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing Pre-trained self-supervised models such as BERT have achieved striking success in learning sequence representations, especially for natural language processing.
- 某些结果已被删除