0
前不久,腾讯研究院发布《AIGC发展趋势报告2023:迎接人工智能的下一个时代》指出,AIGC的商业化应用将快速成熟,市场规模会迅速壮大,预测将率先在传媒、电商、医疗等数字化程度高、内容需求丰富的行业取得重大发展。
与此同时,诸多国外商业咨询机构更是直接给出数据:未来五年10%-30%的图片内容由AI参与生成,2030年AIGC市场规模将达到1100亿美元。
星星之火,可以燎原。早在五年前,AIGC还籍籍无名。它有一个相当拗口的名字--AI生成虚拟内容。以2018年的视频换脸技术Deepfake为代表,“AI伪原创”一词,便从那时传开。
随着深度学习的发展,AIGC逐渐渗透在图像、视频、CG、AI训练数据等各类领域,人们对于这一技术的期望也逐渐丰满。
时至今日,AIGC技术能否用于计算生物领域的新引擎,医疗健康赛道何时迎来新型基础驱动力,成为时下产学研各界的共同关切。
近日,由雷峰网GAIR Live&《医健AI掘金志》举办的《ChatGPT的一把火,能否烧到AI生命科学界?》线上圆桌论坛落幕。
本次论坛,由中国人民大学数学学院龚新奇担任主持,中国科学院深圳理工大学(筹)计算机科学与控制工程学院院长潘毅、百图生科首席AI科学家宋乐、深圳湾实验室系统与物理生物学研究所资深研究员周耀旗、分子之心创始人许锦波,天壤创始人薛贵荣参与讨论。近期ChatGPT爆火,欢迎添加作者微信(微信号:icedaguniang),互通有无。
在上篇中,几位嘉宾共同辨析“AIGC”这一概念,探讨生命科学界中的哪些成果属于AIGC,以及ChatGPT在生命科学领域中可能实现的任务。
在下篇中,将分别探讨AIGC为生命科学带来的可能性与其自身局限,以及中国能否在应用场景上快人一步,实现技术落地与产业转化。
“全球人工智能与机器人大会”(GAIR)始于2016年雷峰网(公众号:雷峰网)与中国计算机学会(CCF)合作创立的CCF-GAIR大会,旨在打造人工智能浪潮下,连接学术界、产业界、投资界的新平台,而雷峰网“连接三界”的全新定位也在此大会上得以确立。
经过几年发展,GAIR大会已成为行业标杆,是目前为止粤港澳大湾区人工智能领域规模最大、规格最高、跨界最广的学术、工业和投资领域盛会。GAIR Live作为雷峰网旗下视频直播品牌,旨在输出新鲜、深度、原创的大咖访谈与对话内容,打造辐射产、学、研、投的特色线上平台。
以下是主题论坛的现场内容,雷峰网《医健AI掘金志》做了不改变原意的编辑和整理:
龚新奇:目前来看,ChatGPT的文本生成功能确实挺强,第一次让我们感觉它像个人一样,能够自然地聊天,读懂你的感情、还可以体会到一些细微的褒贬。而且你可以正反提问,甚至还可以夸奖它、批评它。因此,ChatGPT的出现,能否比肩AlphaGo或是AlphaFold2的出现,是否会成为生命科学跨越式发展的契机?
周耀旗:我不认为ChatGPT可以比肩AlphaGo或是AlphaFold2。AlphaGo当年战胜了人类最好的棋手,而AlphaFold2在高精度蛋白质结构预测上取得了革命性进展,但ChatGPT对生命科学来讲,错误率太高、准确度不够,还不能算作一个跨越性的成果。
但我对它的未来版本充满了信心,特别是当ChatGPT跟搜索引擎结合,会大幅度提高它的精确度。因为它可以出具文献出处,还可以帮我们提供各个领域的综述、问题解决思路、促进不同领域沟通,甚至帮助学者撰写文章初稿。那么未来跨专业、跨语言的交叉研究就变得容易一些。
所以我认为,未来升级版本的ChatGPT完全可以成为一个创新枢纽。科学家把更多精力放在提出问题上,并根据AI的建议来优化、验证解决问题的方法和思路。所以ChatGPT的出现还是有一定的意义,它推动了一个有想象力时代的到来。
潘毅:我认为今后ChatGPT很有可能成为生命科学领域跨越式的发展契机。至于它的影响力,我跟周教授有不同看法,我认为ChatGPT的影响力会大于AlphaGo和AlphaFold2。
为什么?
AlphaGo为专为围棋而设计,AlphaFold是专为蛋白质结构预测而设计,所以它们是一个为专业而生的AI平台。相比而言,ChatGPT是一款通用型AI平台,既可以交流,又可以撰写邮件、视频脚本、文案、翻译、代码,写论文等等,普罗大众都可以试一试,所以ChatGPT的影响力要远比AlphaGo和AlphaFold更广泛、更深刻。因此,虽然ChatGPT在生命科学领域里比不上AlphaFold,AlphaFold在围棋上比不上AlphaGo,本质是术业有专攻。
最近我和老同学黄学东聊天,发现他对ChatGPT的评价很高,“微软如今加码ChatGPT,是因为ChatGPT之于AI,相当于芯片之于计算机这么重要。”
要知道,黄学东多年担任微软Azure AI技术研究员和首席技术官,前不久刚刚当选2023年美国工程院院士,此前他并未将Alphago和AlphaFold定义为一个“里程碑式”的技术突破。
当然,周教授说得很对,ChatGPT在生物领域的影响力也许还没达到,目前ChatGPT无法处理复杂冗长或者特别专业的语言结构。但随着AI技术的改进,几年以后它一定会赶上,甚至会超过AlphaGo和AlphaFold。
从另一方面考虑,如今ChatGPT作为一个通用平台,应该如何推动生命科学发展?
一、生命科学领域的学者为其注入专业性更强的生物知识,只有进行足够的语料“喂食”,ChatGPT才有可能生成适当的回答。那时候,它或将用于蛋白质结构预测,蛋白质设计、蛋白质相互作用分析等各类任务。
二、指挥ChatGPT编写程序,比如Java程序、HTML程序,以及各种API( 应用程序编程接口)。那么未来生物学家只需要发出指令,ChatGPT就能完成从代码编写、接口耦合到程序测试的一系列工作。这也意味着,尽管很多人不能完全精通各种计算机语言,但我们只需要会做一些策划性工作,就能快速搞定项目。
宋乐:从通用人工智能的角度来说,ChatGPT确实是一个非常大的进步。因为在A I领域,过去的对话机器人很难媲美ChatGPT。因为ChatGPT除了逻辑严密的创造能力之外,还具有记忆能力,在连续的对话中不用大家提供重复信息,其语言组织和表达能力也更接近人类水平,使对话更自然流畅。
但实际上,ChatGPT的创造性、流畅度,多轮对话能力,依赖于多种AI技术的结合,包括它的训练方式都和过去的AI模型不太一样。
OpenAI使用了RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习) 技术对ChatGPT进行了训练,且加入了更多人工监督进行微调。因此,ChatGPT进一步提高了AI模型与人类的交互能力,对信息含义的理解能力,以及自我判断能力。
所以,ChatGPT的本质是对人类语言(自然语言、程序指令)反应能力的数学逼近。相比较而言,过去我们和计算机交互,要么自己打字,要么输入非常结构化、死板的程序语言。但现在就可以直接以用自然语言和计算机交互,把它视为人类助手。
最近斯坦福一位教授发现,GPT-3.5的智力已经和9岁的小孩相当,这是以前任何AI 程序都不可能达到的高度。总体而言,我认为ChatGPT是可以被视为里程碑式的AI成果,而且它确实会带来一系列的工业级应用,甚至未来基于ChatGPT衍生出更高级的AI模型。
说到这里,ChatGPT也有一些局限性,比如因为知识缺失,产生一些不正确或者荒谬的答案。
比如你问它“红烧蚊子腿怎么做”,它会给你一个正了八经的回答:先把蚊子腿洗干净,再熬制糖浆,然后放入葱姜蒜煮熟。”它只是把“红烧猪肉”的做法重复了一遍,把“猪肉”换成了“蚊子腿”。
还有一些有趣的例子,比如你叫它做一些算数运算。如果只是简单的单位数运算还好,但如果数字比较长,或者比较复杂,它就做不了。实际上,这体现了ChatGPT当前的训练模式的局限性,更加偏向于基于序列的拟合,或者表征生成序列的形式去训练。
所以ChatGPT还能朝什么方向优化?
有三点思路:
一、未来需要向ChatGPT注入一些知识图谱,比如数学运算能力、生物识别能力,补齐它在这些维度的智慧;
二、对于蛋白质设计、药物设计等细分领域而言,就可以直接“外挂”一些专业模块,比如复合物结构模块、亲和力模块、蛋白质稳定性模块,当“外挂”越多,它的智力更高,也会输出更更贴合需求的结果;
三、我们也可以学习ChatGPT的算法思路和模型训练方式,“投喂”十亿级、百亿级的蛋白质序列数据,训练出一个专用于蛋白质设计的模型。
薛贵荣:我们比较有幸,2018年做过AlphaGo的复现,2021年我们做过AlphaFold2的复现。但总体来说,这些领域我们有胆量尝试,但从来没有尝试过的就是语言类AI模型。
众所周知,自然语言处理(NLP)、机器学习(ML)发展了很多年,但人机交互仍然不能做到问答自如,逻辑流畅。根本原因是建立自然语言处理模型的实用系统,需要不同层面的知识,比如汇学、句法学、语义学和语用学等知识。
而且NLP是一个交叉学科,涉及了方方面面的知识领域,包括计算机科学(给NLP提供模型表示、算法设计、计算机实现的技术)、数学(给NLP提供形式化的数学模型和形式化的数学算法)、电子工程:(给NLP提供信息论的理论基础和语言信号处理技术),以及心理学、哲学、统计学等等。所以从开发难度上看,ChatGPT都是当之无愧的AI界“天花板”。
另一方面,无论是AlphaGo还是AlphaFold2,都是某一领域的专业软件,但ChatGPT更像一款平民版AI,能够承载几个亿的用户一起测试,因此,它在覆盖面、影响力上,都远超AlphaGo和AlphaFold2。未来,大家肯定希望像ChatGPT这样的技术能够应用在生命科学场景中。
比如,现在的医疗问题是大家有问题找专家,但在医疗资源分配不均、医疗供给量不足的情况下,这一问题始终得不到解决。那么ChatGPT就可以发挥出“消费级应用”的特长,渗透入看病、制药等环节,降低专家依赖,一步讲清所有深奥的“病理、药理”。而经历过疫情三年后,大家更关注健康问题,我们也更加期待ChatGPT能够联姻生命科学,实现跨越式发展。
许锦波:从AI的角度来说,ChatGPT的出现意义可以和AlphaGo、AlphaFold2相提并论。它们都是重大技术突破,激发的讨论突破了业界的范畴,外溢到公众层面,可见影响力巨大。但是从生命科学角度来讲,在蛋白质设计等方面,ChatGPT并不专精。实际上用AI进行蛋白质设计或预测蛋白质结构,两年前甚至三年前就发生了,只是模型比ChatGPT更小,当时的算力也比较小。
因此,如今AI领域面临的重要问题是,现在的算法跟两年前的AI算法,到底有没有本质上的区别?
至少目前来说,我没看到本质上的区别。当然,在蛋白质设计上,现在的算法相比于传统算法确实取得了进步,很多人也在讨论,我们是不是要研发出一个ProtGPT,大幅度提高蛋白质设计的成功率?但要明白一点,所有通过AI设计出来的蛋白质都要有湿实验验证。如果未来AI能够大幅度降低对湿实验的要求,降低实验成本和时间,甚至用计算验证来替代实验验证,那将是更大的进步。
当ChatGPT/AIGC大展拳脚,生命科学领域最明显的变化会是什么?另一方面,这种概念对于生命科学行业,是否有不确定性或者危机?
周耀旗:我觉得AI已经为生命科学带来了很大变化,特别是AlphaFold2对大部分蛋白质结构的预测,与真实结构只差一个原子的宽度,达到了人类利用冷冻电镜等复杂仪器观察预测的水平。这一重大成果虽然没有引起媒体和广大民众的关注,但生物领域的科学家反应强烈。
可以说,AlphaFold2对生物机制的理解,对药物设计都带来了正面影响。当然,未来AIGC一定为生命科学带来更大的变化,比如AI设计的蛋白质会越来越多,进一步补充PDB蛋白质结构数据库、功能库,推动人类对生命科学的理解进入到一个新的高度。
与此同时,ChatGPT对于生命科学行业也有很大的不确定性:
一、预测是否错误,错误率是多少,以及是否误导用户。因为AI是通过海量数据训练出来的,因此这一缺点也与大数据的问题一样:数据很精确但错得离谱。相比而言,AlphaFold2有一个plDDT打分函数,但是打分函数并不一定完全正确,有时候还是错的;
同时,我们也不可能对每个设计结果都做验证,所以有时候还是很受误导,得出一些错误的结论。但目前我觉得是可以忍受的,因为模型训练本身就是在纠错,除了蛋白质设计以外,其他生物高分子的应用也是会越来越多,不仅仅DNA、RNA、代谢组、糖等各方面都会大展宏图。
二、鉴于ChatGPT会把原来一篇文章重新编辑,那么我认为未来最大问题是出现假论文、编造假实验数据、甚至用这个技术做坏事,比如产生新病毒、新细菌,都是潜在风险。
所以长期来讲,AIGC会随着时间更加成熟,这种不确定性和危机也会更加隐蔽,可能十几年、三十年左右就会来临。我们需要在科学研究能力和风险管理上提前做好准备。
宋乐:我可以想象,随着数据量越来越多,算力越来越强,AIGC模型本身的生成能力,以及各种外挂功能(亲和力、稳定性、表达量)的加持,或许未来非常多的蛋白质设计工作都是在计算机里进行,后端的湿实验数量就会大大减少。
那么当ChatGPT/AIGC大展拳脚,生命科学领域最明显的变化,我认为有几点:
一、实验人员减少,要求也因此下降,未来或许也不需要那么多的人体临床实验;
二、实验工作者也要学习数据分析,朝AI的方向走,以及一些高校会将计算机课程设立为药物、生物等专业学生的基础课;
三、一些新的工作机会也会创造出来,比如如何更好地衔接外挂和AIGC模型,如何真正地推动AIGC模型加速药物设计。
但从我的感受来,生物的复杂程度各不相同,比如目前数据量最大的蛋白质序列,那么“AIx蛋白质设计”会最快落地,可能是未来3~5年。但是复杂度更高的领域,比如蛋白质相互作用、细胞设计及相互作用、器官设计以及相互作用,它们需要更多的数据,更大的算力、更长的时间打造AI模型。
总体来说,AI在朝着那个方向走,只不过是时间长短的问题。
薛贵荣:可能我们最快感受到的变化,是药物研发速度大大提高,比如以前研发一款新药究竟有多难?医药界有个“双十定律”:一款新药从研发到上市,平均需要10年时间和10亿美元的投入。
那么AIGC的发展,时间、资金可能都会缩短,准确度还会有比较大幅度的提升。
当然周教授也提到,或许不同目的的人会加速制造一些病毒细菌,那么未来监管局既要推动优势药物上市,也要防范生化危机,需要尽快建立系统性的管控制度和规范。
潘毅:刚才几位教授都讲得非常好,那么我认为,ChatGPT/AIGC这种技术应用在生命科学领域,第一大危机是什么?
一、数据污染。
因为生命信息领域有诸多基因数据库,假设有人放入一万个有攻击性的数据,并将某些基因数据跟疾病关联,最终预测结果失准。目前我们还没有看到这样的事情,因为ChatGPT刚刚出现,大家普遍想用它写出“好文章”,前后衔接、逻辑连贯、辞藻优美。但如果你的目的是生成有破坏力的内容,就会拿“烂文章”训练它,甚至ChatGPT也可能被引诱去做坏事。
二、巨大的算力和电力消耗量。
从技术原理来看,ChatGPT基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大。从运行条件来看,ChatGPT完美运行的三个条件:训练数据+模型算法+算力,需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。
要知道,一个参数要很多数据支撑,近2000亿的参数中需要多少数据,要消耗多少电?假如每个国家每个地区都这么做,能源可能就是一个问题。所以规模也不能这么扩大,我还是强调打造专业领域的BioGPT。
三、用户沉湎、数据隐私、版权伦理。
用户过分依赖于AI从事内容创作,可能导致内容非原创,缺乏创造力,引发版权问题,甚至隔绝物理世界,影响身心发展,社会整体运作效率反而降低。
许锦波:ChatGPT带来的好处,至少让AI蛋白质设计领域的从业者更有信心。最近一两年,由于AI的深入发展,蛋白质结构及功能研究取得了巨大的突破,从传统的物理和统计方法快速走向机器学习,乃至深度学习;分子生物学界的研究范式,也从基于序列的研究转向基于结构的研究,极大提高了蛋白质从头设计的效率。
而在产业界,AI蛋白质发现和设计也乘势而起,成为全球瞩目的热门赛道。
但目前来说,大家还无法确定:AI设计蛋白到底能做得多好?相比于传统方法效率能提高多少?实验要求能够降低多少?这些都还需要继续探索。
龚新奇:黄民烈教授接受采访及近年的现象所示,美国在AI的基础研究上积累深厚,中国则是强于AI的场景应用。在ChatGPT之后,百度将于3月上线ChatGPT产品,名为文心一言。当AIGC用于生命科学领域,中国在技术落地、产业转化上,是否具备“弯道超车”的机会?
薛贵荣:最近AIGC和ChatGPT的讨论特别多,国内又兴起了一波AI热潮。但就像刚才潘毅教授讲到的一个关键问题:必须建设各领域的专业版GPT。
在各块专业领域,中国已经积累了大量知识库,或许我们有机会做到弯道超车。尤其是在生命科学领域,中国的蛋白质设计技术与国际基本上处于同一水平,已经实现了核心技术的原始创新,为工业酶、生物材料、生物医药等功能蛋白的设计奠定了基础。
举个例子,去年12月1日,华盛顿大学David Baker团队发布了RFDiffusion、同日波士顿蛋白质设计公司Generate Biomedicines发布了扩散蛋白生成模型Chroma、同月Meta发布基于150亿参数的ESM2语言模型,实现全新的非天然蛋白质设计。今年年初,加州伯克利的一家初创公司Profluent也称采用类似ChatGPT的蛋白质工程深度学习语言模型——Progen,首次实现了AI预测蛋白质的合成。目前我们也自研了一款扩散模型TRDiffusion,设计多种多样与天然蛋白质截然不同的全新单链蛋白质及复合体,目前已进入实验验证阶段。
实际上,无论是中国也好,美国也好,最大的优势是大家都能利用蛋白质设计技术,撬开生命科学的窗口。那么后续大家会更加重视生命科学的产业环境,无论是创新药环境、环保能源环境、食品安全环境等等,都会跟上技术研发的速度。所以我觉得,无论是科技研发、产业落地、还是风险投资,我们一定要对未来的产业环境有足够的信心和投入。
对于天壤而言,未来在算法升级,干湿实验室搭建、平台开发上都需要很大的投入;
其次,大家都知道,蛋白质被称为“生命的基石”,在已知的天然蛋白质的背后,蕴藏着一个隐密而巨大的“蛋白质矿山”。大家都想最先找到那块金矿,这方面特别考验团队的算力、算法、人才队伍,以及下游的产业合作。所以这是一个联动的工作,研发做快了,后面也得跟着快。
因此,回到刚才讲到的中国能否弯道超车的问题,我认为这是一个非常具有挑战性的事情,但最根本的一点,我们不能从一直follow别人的技术,而是要从中国本土的产业转化和人民需要上找问题,这才是我们弯道超车的机会。
周耀旗:我认为如今的ChatGPT有点像新一波AI热潮。
2020年AlphaFold2出来的时候,大家对AI的兴趣特别大,很多投资方出手,但很快发现AI公司并没有那么快出效果,所以去年AI热度又降了下来。如今ChatGPT让AI再次回热,但也有人发现它距离SOTA (state-of-the-art model,最先进的模型)还有一段距离,所以我估计大部人很快又会失望。
另一方面,从公司的角度来说,OpenAI公司成立于2015年,8年时间才产生了ChatGPT这样的轰动项目。但国内有多少家投资商和公司,有耐心等8年?
有人说,中国会发展出更好的ChatGPT,认为中文内容的广度、深度远远超过英文内容。实际上,如今即使是中国人所发表的前沿知识,大部分都是以英文的方式呈现。英文知识库扩大的速度很快,而中文很慢。因此,只有把中英知识全部结合起来,才能充分利用全人类的积累的知识。
举个例子,为什么谷歌搜索占据世界第一,国内搜索公司的回答准确性却很低,甚至它的应用市场只缩在中国?
这是非常现实的问题,主要原因是因为很多国内公司没有胸怀世界的前景观,认为专精于中国知识库就够了。那么,借助ChatGPT的热潮,我们到底能不能实现弯道超车?
从国内生物医药的政策环境来看,某种意义上我们还存在一些阻碍,特别是国内创新药市场的带量集采模式,类似于传统的统购统销模式,导致创新药价格被压得很低,上游科研、生产等环节都缺乏动力。
相比较而言,全球主要国家创新药市场销售额情况,美国占比在50%以上,其他发达国家中,欧洲五国占比约16%,日本韩国占比8%,中国仅占3%,与发达国家差距较大。
这也侧面反映了美国在研发,转化,市场方面具备更深厚的经验积累,中国还有很多的学习机会。
先不说超车,今后我们要多久才能跟上美国步伐,现在还是很大的挑战。另外,中国在芯片方面被限制,所以尽管最近很多开源方案可以复用,但大家如果想大幅度超过国际水平,我觉得还是有一点困难。
龚新奇:周教授给我们的建议,我们先能跟跑,再是超车。2021年5月,百图生科计划在苏州工业园区创意产业园建立苏州研发中心,百度创始人李彦宏到场,看来是想花很大心思想引领中国的“BT+IT”的发展。宋乐老师是百图生科在AI生命科学方面的的领导者,你觉得,你们有什么样的规划可以助力中国来弯路超车?
宋乐:我可以从行业现状分享一些看法。我观察一些美国大药企和美国AI公司在合作上释放了一个机会窗口给中国。
怎么说呢?美国很多传统大药企,更加聚焦于用一些生物手段、实验手段做药物筛选,研究大多以生物学家、医学家为主导。沿用这条旧有的的研发模式,他们非常成功,很赚钱,也花费了大量的实验成本、试验周期。但这些公司里的IT、AI团队都很小,只有3~5个人,很难做出大规模预训练模型,以及更复杂的结构预测模型。为了促进干湿实验结合,他们只好源源不断地引入外部公司研发的AI模型。
但这类公司囿于人力、组织结构,很多情况下他们都是处于观望和学习的阶段。而国外还有一类公司,却是强于AI,能够孵化出诸多世界级的前沿AI生物技术。比如Deepmind、Meta、它们强于算法迭代,频繁在蛋白质结构预测和生上吊打其他公司。
比如最近Meta基于大语言模型而推出的蛋白质设计工具,就被在Meta任职多年的首席AI科学家Yann LeCun直言:效果惊人。因此国外生命科学界的研发落地模式,属于“顶级AI公司+Biotech公司”强强联手,不断拟合两者之间的gap。
但实际上,跨公司之间的合作矛盾无可避免,成果落地也存在拉扯。截至目前,国外诸多公司只是在算法层面给了我们很多希望,离真实的实验验证、技术落地、产业转化,以及临床应用,还存在很远的距离。所以总体来说,美国两种不同的研发公司,都存在各式不一的先天性缺陷,反而给中国公司提供了一个“时间窗口”。
比如,中国走的路线是将多学科的学者集中起来,在发展之初就强调“AI+实验”的一体化模式。尽管这种模式在AI制药的研发、临床等前期阶段耗时长,但只要跨过死亡谷,在硬科技产品商业化、面向市场的阶段,或超速美国。
以AI制药为例,当一个创新药物进入临床1-3期的时候,就已经证明了自身市场价值。至于后端的临床、市场能否产生效益,实际上与资本和政策支持密不可分。换句话说,百图生科等公司的任务是,做好产业最前端的算法技术升级、药物发现和筛选,从而进一步缩短药物交付时间,如此才能真正惠及患者。
总体来说,我们是有一个时间窗口做到弯道超车,但不单是公司模式要革新,投资界也要树立一种新的视角,学习和借鉴国外“AI+Biotech”的投资理念,如此才能推动产学研生态繁荣。
潘毅:我们所谓的要弯道超车是什么意思?我们说基于GPT的算法做出上层应用,实现市场繁荣。但实际上,GPT是最底层的技术,如果我们做出适用于生物知识问答的BioGPT,蛋白质结构设计的ProGPT,那么我们毫无疑问将弯道超车。
但能否超越国外的算法模型,我们是没有底气的,如果GPT4,5...出来了,甚至算法封锁,国内所有应用层的东西都无法进行。
所以很重要的一点,国内多家互联网公司模式,尽管做到最大,钱赚得最多,但是底层技术却仍然落后和依赖“拿来”的东西。这种情况下,我们国家再怎么主导、地方再怎么支持、公司再怎么运作,都无法将底层技术沉淀下来。
问题出在哪里?是我们能不能沉下心来,花上几年时间,投入巨大的资金,做出一个震惊世界的成果。
相比较而言,做出ChatGPT的OpenAI是怎么是做到的?
2015年,OpenAI成立,核心宗旨在于“实现安全的通用人工智能”,使其有益于人类。创立3年半后,OpenAI建立了新的公司架构,现在的OpenAI由营利性公司OpenAI LP和非营利性母公司OpenAI Inc组成。不过,为了不与最初的使命冲突,OpenAI规定,参与首轮融资的投资者最高可获得100倍于初始投资的收益,超出的部分都将返还给非营利组织。
2019年7月22日,微软一掷千金,投资OpenAI 10亿美元,今年1月份,微软宣布向OpenAI追加投资数十亿美元,这也是人工智能领域史上规模最大的一笔投资。据说微软还计划向OpenAI投资高达100亿美元,同时正在讨论拿到OpenAI 75%的利润股份,直到收回投资,之后微软将获得OpenAI 49%的股份。
这说明,OpenAI做好了一家实验室的使命,投资公司也完成了自己最擅长的事情。
但遗憾的是,国内却没有一个公司,愿意花上千亿,组建百人团队,赌上自己的十年。这才是真正的问题。所以我们现在要做的,是变革“产学研+投”的发展模式,计划下我们怎么弯道超车。另外,还有一种方式做到弯道超车--做出专精某一领域的GPT。
现在我们在关注生物信息领域,可以做出与生物有关的GPT。等这一领域的的算力、算法模型、公司实力都愈发强大,就可以将其复用在其他领域。比如法律的LawGPT,经管的FintechGPT,以及方方面面的专有工GPT。
举个例子,当初我的一个硕士生用半年时间做了一个AI软件,打败了AlphaGo。很多人可能会觉得,“你竟然打败了AlphaGo ,太了不起了”。但这是我们是参照别人已有的AI模型做的改进,技术的复现并不难。难的是,我们不是第一个想到做这样模型的人。有时候,敢想才是创新的第一步。
许锦波:我觉得中国是有弯道超车的机会,因为“AIGCx生命科学”也不过两三年的时间,大家都处于发展初期。
其次,中国市场空间更大,对生命科学产业也愈发重视,未来随着数据、算法、算力的升级,将极大推动技术的发展以及产业转化。
但回归到一个核心问题,目前的生物数据能否足够训练出生物界的“ChatGPT”?
这当然要看你的要求有多高,好消息是现在蛋白质领域的数据已经非常多,比如蛋白质序列数据已经有几十亿条。我们也在通过湿实验收集针对特定任务的数据。有了蛋白质通用的序列数据、结构数据,加上特定任务的实验数据,我很期待未来能够训练出更好的AI蛋白质生成模型。
所以现在的关键问题在于大家怎么做出更好的AI蛋白质设计算法,如何把各种各样的数据整合在一起发挥更有效的价值。
随着高通量技术可以产生更多的实验数据,相信会促进AI算法越来越好。所以总体来说,我还是很看好中国市场。
圆桌策划人吴彤,长期关注生物信息学,AI制药,医疗机器人。近期ChatGPT爆火,欢迎添加作者微信(微信号:icedaguniang),互通有无。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。