共6个回答
-
最佳回答
李希信烟“文心一言”是一个基于大规模预训练模型GPT-3的在线创作助手,而“CHATGPT”是OpenAI的一个聊天机器人模型。尽管它们都建立在相同的GPT基础之上,但在功能和应用方面存在一些差异。1. 功能:文心一言主要用于生成文本创作的辅助工具,可以提供写作灵感、生成文章段落、提供建议等。它提供了一些模板、提示和建议,同时可以根据用户的输入生成相关的文本。CHATGPT则更侧重于与用户进行对话,回答问题、提供信息、参与交流等。2. 模型结构:文心一言是基于GPT-3训练的模型,它专注于文本创作的辅助任务。而CHATGPT则是OpenAI专门为聊天任务进行优化的模型。3. 响应风格:由于文心一言的用途主要是辅助文本创作,它的输出更加偏向于提供建议、提示和创作相关的内容。CHATGPT则在对话中更注重交流,提供更多的对话式回复。4. 训练数据:两个模型的训练数据不完全相同,虽然都来自于大规模的互联网数据,但来源和处理方式可能有所差异,这导致它们对于不同类型的问题或任务的能力可能不同。文心一言更适用于文本创作辅助的场景,而CHATGPT则更适用于需要进行对话和交流的场合。不同的模型有不同的优点和特点,在具体使用时可以根据需要选择合适的模型。 -
鲁策巧广撰文 / 涂彦平 编辑 / 黄大路 设计 / 赵昊然ChatGPT在这个春天霸占了中文互联网,普通人面对它多生出兴奋和焦虑交织的复杂情绪,而大公司不甘落后,纷纷宣布自己也在做类似的AI大模型。继3月16日百度发布文心一言之后,4月7日,阿里云官宣大模型通义千问开始邀请测试。4月8日,在人工智能大模型技术高峰论坛上,华为云人工智能领域首席科学家田奇分享了盘古大模型的进展及应用。他透露,华为盘古大模型正在推动人工智能开发从“作坊式”到“工业化”升级。有多场大模型相关发布会扎堆举办。4月10日,商汤“日日新SenseNova”大模型体系问世;4月11日,毫末智行自动驾驶生 -
公冶荔胜河百度文心一言是每日更新的一句古诗词,旨在激发读者的思考,增强文人文魂。我期待文心一言能够带给我更多美好的文学体验,更深刻的文化意境,以及更多有趣的历史故事。进入3月中旬,全球科技巨头再次竞相亮相大语言模型赛道。一周之内,开发出ChatGPT的美国初创公司OpenAI,对OpenAI投入巨资的科技巨头微软,以及中国互联网龙头企业百度,相继发布了在大语言模型(LLM)领域的最新动态。这也再次引发了全球对该领域的关注。当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4,它比GPT-3.5的问答质量和技术都有明显提升。3月16日下午,百度开启新一代大语言模型、生成式AI产品文心一言测试,从而成为第一家加入该赛道竞争的中国企业。在发布会现场,百度创始人、董事长兼首席执行官李彦宏通过问答的形式,展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等五个使用场景。几个小时后,微软宣布,将把GPT-4接入Office全家桶,新名为“Microsoft 365 Copilot”。正如财经E法在2月17日发布的文章(OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?)所述,中国内地和中国香港的手机号均无法注册ChatGPT账号。虽然OpenAI的应用程序编程接口(API)已向161个国家和地区开放,但不包括中国内地和中国香港。一方面,业界普遍关注,在AIGC(生成式人工智能)势不可挡的科技浪潮中,谁将成为下一个弄潮儿?另一方面,在中美科技竞合的敏感期,各方亦颇为关注百度迈出的第一步带来的涟漪,以及中国企业该如何应对。01“真的ready了吗?”3月16日,李彦宏身着白衬衫和运动鞋演讲。开场就直面疑问,“最近一段时间,很多朋友问我,为什么是你们真的ready了吗”?李彦宏的回答是,虽然百度已投入AI研究十多年,为发布文心一言做了充分准备,但“不能说完全ready了”,因为文心一言对标ChatGPT、甚至是GPT-4,门槛很高,还“有很多不完美的地方”。但他强调“一旦有了真实的人类反馈,文心一言的进步速度会非常快”。李彦宏解释,之所以选择当天发布,是因为市场有需求:客户和合作伙伴都希望能早一点用上最新最先进的大语言模型。如何理解李彦宏所言的“对标GPT-4的门槛很高”?当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4。GPT-4是大型的多模态模型,即能够接受图像和文本类型的输入。而GPT-3.5只能接受文本输入。在演示视频中,OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)用笔和纸画了一幅网站草图,并将图片输入GPT-4。仅1到2秒后,GPT-4就生成了网页代码,制作出了与草图高度相似的网站。根据OpenAI发布的实验数据, GPT-4模型相较前一代GPT-3.5已取得了巨大的进步,在许多专业测试中表现出超过绝大多数人类的水平。浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林认为,文心一言未来还有待全面开放来获得用户检验。无论是通过B端API还是直接向C端用户开放,用户体验口碑都是硬道理。当前ChatGPT没对中国用户开放,在国内市场,百度将获得先发优势。对OpenAI和百度的产品均做过测评的艾媒咨询CEO兼首席分析师张毅表示,GPT系列大模型,包括GPT-4与文心一言本质上都是同一类产品,只是它们各自的数据覆盖范畴和数据模型的积累长短不一。从短期看,OpenAI的产品准备时间相对更加充足,智能程度暂时领先一些。但是对文心一言而言,能在这么短的时间内训练出这样的一个产品,也是非常了不起的。张毅也对百度做出更好产品更有信心,他的理由是,从人工智能、大数据、大模型的人才储备来看,中国会更有优势。中央财经大学数字经济融合创新发展中心主任陈端则认为,与海外竞争对手相比,百度最大的优势是立足本土,构建了语言和文化层面理解的护城河。作为中国公司研发的大语言模型产品,文心一言的中文理解能力备受关注。重要原因是,此前很多评论人士认为,ChatGPT的中文问答能力不如英文问答能力强。李彦宏表示,作为扎根于中国市场的大语言模型,文心一言具备中文领域最先进的自然语言处理能力。在现场展示中,文心一言正确解释了成语“洛阳纸贵”的含义、“洛阳纸贵”对应的经济学理论,还用“洛阳纸贵”创作了一首藏头诗。李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。发布会前后,百度的股价经历了大落大起。3月16日,港股百度盘中股价跌幅一度扩大超10%,报120.1港元。截至收盘,百度股价跌幅为6.36%,报125.1港元。但百度股价在美股势头强劲,当日百度美股开盘低开高走,振幅超7%。截至收盘,报138.16美元,涨幅为3.8%。3月17日,百度港股表现强势,盘中一度大涨超15%。截至当日收盘,百度港股涨幅为13.67%,报142.2港元。文心一言宣布开启邀请测试一小时内,排队申请文心一言企业版API调用服务测试的企业用户已达3万多家,申请产品测试网页多次被挤爆,百度智能云官网流量飙升百倍。文心一言的市场热度持续飙升,资本市场也给予了价值重估。张毅认为,这也代表了公众对大语言模型/生成式AI “既期待,又担忧,然后是希望”的心情。02谁都不能错过的科技革命“真的ready了吗?”并不仅针对百度,也是伴随此轮“ChatGPT”热潮以来,公众普遍的疑问。李彦宏观察到,从2021年开始,人工智能技术开始从“判别式”向“生成式”转变。创新工场董事长兼CEO李开复3月14日在一场趋势分享会上表示,AI 2.0时代的第一个现象级应用,就是以GPT-4为代表的AIGC,又称生成式AI(Generative AI)。李开复表示,AI2.0 是绝对不能错过的一次革命,它将会是一个巨大的平台性机会,这个机会将比移动互联网大十倍。他还表示,AI 2.0也是中国在AI领域的第一次平台角逐机会。受访专家普遍认为,此前全世界的AI企业都遇到了一个极大的问题:即使技术储备十分丰富,AI应用并没有给它们带来丰厚的收益。造成这一问题的原因在于,AI产品的应用主要集中在B端(企业用户)和G端(政府用户),AI产品在进入企业或机构时往往流程复杂,这在某种程度上会限制AI产品在市场上的快速扩张。张毅认为,AIGC的产品应用方向在C端更有可能产生巨大的商业机会。他分析说,在美国市场,此前C端市场被谷歌、亚马逊、Meta等企业抢占,让微软压力非常大,更需要一款产品来扳回一局。在中国市场,百度的优势和谷歌一样,都有强大的搜索引擎对数据的抓取能力,以及储存、整理、分析能力的基础。中国本身拥有十几亿人口的巨大市场,百度完全可以做得很优秀。“百度和微软、谷歌本质上是两个不同市场的竞争,所以我相信文心一言以及系列产品也一定会跑出来。”张毅说。李彦宏坚称,文心一言不是“中美科技对抗的工具”。但他也承认,ChatGPT 的成功,加快了百度推出该产品的进度。百度CTO王海峰表示,人类进入AI时代,IT技术的技术栈可以分为四层:芯片层、框架层、模型层和应用层。百度是全球为数不多、在这四层进行全栈布局的人工智能公司,在各个层面都有领先业界的自研技术。高端芯片昆仑芯、飞桨深度学习框架、文心预训练大模型以及搜索、智能云、自动驾驶、小度等应用。王海峰认为,百度全栈布局的优势在于,可以在技术栈的四层架构中,实现端到端优化,大幅提升效率。文心一言与ChatGPT一样,都使用了SFT(模型微调)、RLHF(从人类反馈中进行强化学习)以及Prompt(提示)作为底层技术。文心一言还采用了知识增强、检索增强和对话增强技术。王海峰表示,这三项是百度已有技术优势的再创新。陈端认为,在当前技术创新的集成性越来越高的当下,全栈式布局的单一公司在内部技术研发统筹能力和后期商业化进行中的协同能力上具有比较优势。信心很重要,但差距无法忽视。在本月初的两会期间,中国科技部部长王志刚在回应ChatGPT相关的问题时,用足球打比方,指出中国还有很多工作要做。“踢足球都是盘带、射门,但是要做到梅西(足坛巨星利昂内尔·梅西)那么好也不容易。”王志刚指出,中国在这方面也作了很多布局,在该领域的研究也进行了很多年,并且有一些成果,“但目前要达到像 OpenAI 的效果可能还要拭目以待”他补充道。王志刚说,ChatGPT出来以后,引起了大家的关注。实际从技术本身源头来讲,它叫做NLP、NLU,也就是自然语言处理和自然语言理解。ChatGPT之所以引起关注,在于它作为一个大模型,有效结合了大数据、大算力、强算法,计算方法有进步。同样一种原理,做得有区别。比如大家都能做出发动机,但质量是有不同的。无论是ChatGPT还是文心一言,其背后的大语言模型是核心竞争力。北京大学王选计算机研究所研究员赵东岩告诉财经E法,国内大模型在数据、训练方法和费用投入方面和OpenAI还有一定差距。一位科技系统人士则对财经E法指出,客观而言,中美目前在该领域的基础研究成果差距较大。这些基础研究成果包含自然语言处理(NLP)、数据库、GPU产品,“美国切断GPU芯片(的供应),(中国的)算力就跟不上”。大型算力的核心在于高性能GPU芯片。北京航空航天大学软件学院助理教授周号益告诉财经E法,在GPU芯片等计算硬件上,中国与国际的差距在十年左右,硬件水平会严重制约大语言模型以及科学计算类模型的发展。周号益认为,在技术和模型上,中国的科技公司与OpenAI并没有代差,差距仅在五年以内,在一些较小的技术领域差距只有2-3年。在数据采集方面,以GPT-3大模型为例,其训练的语料中中文只占5%,中国科技企业对中文语料的积累具有一定优势,因此极有可能在中文领域实现突破。03巨头下一步:构建生态对于以ChatGPT为代表的大语言模型赛道如何实现盈利,是各方公认的难题(ChatGPT爆火的冷思考:盈利难题与治理挑战)。开发出ChatGPT的OpenAI仍是一家亏损中的创业公司。而2023年1月,投资银行摩根士丹利(Morgan Stanley)的一份分析报告称,ChatGPT的一次回复成本大约是谷歌搜索查询平均成本的6倍-28倍。但腾讯研究院高级研究员曹建峰和经纬创投前副总裁庄明浩都认为,ChatGPT能带来多少盈利,并不是OpenAI关注的重点,重点是基于它的模型能长出什么样的服务和应用,从而构建起一个生态系统。“ChatGPT的发展需要一个产业生态,比如它和微软相关应用的融合就是很好的思路。”曹建峰说。当地时间3月15日,微软副总裁兼消费者首席营销官余瑟夫·梅迪发文表示,新版必应搜索引擎已经在 GPT-4 上运行。另据OpenAI披露,GPT-4是在微软Azure AI 超级计算机上进行训练的,并将基于Azure 的AI基础架构向世界各地的用户提供 GPT-4服务。谷歌则宣布开放其大语言模型PaLM的API接口,并推出面向开发者的工具MakerSuite。通过PaLM API 接口,开发者们可以将PaLM用于各种应用程序的开发。MakerSuite则可以让开发者快速对自己的想法进行原型设计,并且随着时间的推移,该工具将具有用于快速工程、合成数据生成和自定义模型调整的功能。微软迅速跟进。当地时间3月16日,微软宣布将把GPT-4接入Office全家桶。新功能名为“Microsoft 365 Copilot”。李彦宏则在发布会上表示,文心一言定位于人工智能基座型的赋能平台,将助力金融、能源、媒体、政务等千行百业的智能化变革。根据文心一言的邀请测试方案,3月16日起,首批用户可通过邀请测试码,在文心一言官网体验产品,后续将陆续开放给更多用户。百度智能云即将面向企业客户开放文心一言API接口调用服务。该服务于3月16日起开放预约。截至3月18日早11点,排队申请百度智能云文心一言企业版API调用服务器测试的企业用户增加到9万家,百度收到关于文心一言合作的咨询 6588条。陈端认为,这一轮的竞争,不仅是商业主体的竞争,实际上也是关乎下一轮国家数字竞争力的竞争。百度的当务之急不完全是技术层面的研发,也需要引领更多初创型企业、生态合作伙伴加盟生态阵营。在陈端看来,中国在构建生态系统上具有优势。陈端指出,中国的移动互联网经过多年发展,应用层生态化的配套创新已经非常成熟。应用层的很多中小微创业团队,在过去配合移动互联生态做了大量的局部、垂类场景端的创新,把过去的这种模式以及底层基础设施从移动互联迁移到大模型领域依然适用。04中小企业还有机会吗?面对大语言模型的浪潮,中国企业该如何抓住机遇,避免风险?布局ChatGPT的企业有两种类型:第一种是传统的互联网大公司,第二种是一些初创企业。陈端认为,目前市场上的初创公司已经错过了布局大模型的初始创业阶段。陈端分析说,重新打造生成式AI企业,跟时机、底层的生态支撑度,还有创始人自身的阅历、经验、视野、个人IP的自然调动能力都是息息相关的。大模型在前期的投入,不管是算力还是其他的成本,以及时间窗口都很重要。陈端表示,百度有能力把自己的其他的产品与文心一言协同,就像微软把Office与GPT-4协同推出Copilot,而“创业者单纯去拼大模型却没有配套生态,这是很成问题的”。张毅也认为,对于能够有资金、实力支撑的企业来讲,单独构建大模型产品可能会更受资本和创业者的青睐。但对于中小企业来讲,依托文心一言的开放平台去嫁接自己在细分领域的应用,也是一个不错的选择。因为要做出大语言模型,需要长时间,以及巨额资金的投入。OpenAI成功的背后,是微软多年来的巨额投入。美国时间2023年1月23日,微软宣布将对OpenAI进行为期数年、价值数以十亿计美元的投资。在2019年和2021年,微软曾向OpenAI两次投资。2019年的投资为10亿美元,而2021年的投资未公开金额。 AI公司“彩云科技”的创始人袁行远在接受36氪采访时指出,要想跑通一次100亿以上参数量的模型,至少要做到“千卡/月”这个级别,即:用1000张GPU卡,然后训练一个月。即使不用最先进的英伟达A100,按照一张GPU五万元的均价计算,1000张GPU意味着单月5000万的算力成本,这还没算上算法工程师的工资。“无论是哪家公司,都不可能靠突击几个月就能做出这样的大语言模型。”李彦宏在发布会上表示,深度学习、自然语言处理,需要多年的坚持和积累,没法速成。大模型训练堪称暴力美学,需要有大算力、大数据和大模型,每一次训练任务都耗资巨大。百度提供的数据显示,百度近十年累计研发投入超过 1000 亿元。2022 年百度核心研发费用 214.16 亿元,占百度核心收入比例达到 22.4%。但百度并未透露大模型研发在核心研发费用中的占比。李彦宏在发布会上表示,百度对文心一言的定位,是一个通用的赋能平台,金融、能源、媒体、政务等千行百业,都可以基于这个平台来实现智能化变革,实现效率提升,创造巨大的商业价值。李彦宏认为,大模型时代将产生三大产业机会,分别为新型云计算公司、进行行业模型精调的公司和基于大模型底座进行应用开发的公司,即应用服务提供商。李彦宏断言,对于大部分创业者和企业来说,真正的机会并不是从头开始做ChatGPT和文心一言这样的基础大模型,这很不现实,也不经济。基于通用大语言模型抢先开发重要的应用服务,这可能才是真正的机会。基于文本生成、图像生成、音频生成、视频生成、数字人、3D等场景,已经涌现出很多创业明星公司,可能就是未来的新巨头。“大模型、生成式AI最终的产品形态还不得而知,所以这条路注定是长跑,需要整个科技界在资本、研发、模式创新上密切、持续地跟跑。”张毅说。李开复认为,AI2.0会最先应用在能容错的领域,而毫无疑问最大的应用领域现在是内容创造。每个领域都可以把原有的App重写一次,创造出更赚钱的商业模式,最终AI2.0的生成能力会把成本降的几乎到0。 -
莘群青佳汽车变身为行走的计算终端,其革命性形态已经出现。现在就参与大模型构建和应用,就显得比较重要了。文 /《汽车人》黄耀鹏今年的新能源汽车产业,如果说有什么技术发展方向是业内共识的话,除了高压快充普及,就是大模型接入了。7月31日,吉利预告了大模型技术;8月8日,广汽推出“广汽AI大模型平台”;本月,奇瑞将发布自己的AI大模型……在此之前,小鹏、理想、特斯拉都宣称自己拥有“自动化数据闭环系统”(大模型的一种应用方向)。李想公开宣称:“大模型的研发和训练,是智能电动车企业的必要能力。”而平台级公司,百度、阿里、腾讯、360、华为都推出了自己的大模型。上半年结束的时候,国内大模型已经达到80个以上。中美两国的大模型数量占据了全球80%。面对大模型,车企有三种选择:第一种是从基础层开始,全盘由自己搭建;第二种是在平台级企业搭建的基础层上搭建应用层;第三种是直接接入某个大模型。三种玩法都有一批企业参与。百度的文心一言(语言大模型),就有长安、红旗、岚图、长城、吉利、东风日产、零跑、集度等几十家车企接入。大模型有很多应用方向,语言类的集中于智能座舱的优化。而汽车必须首先满足安全便捷地运送乘客,自动驾驶能力是刚需。现在车企部署/接入的大模型,主要就是做自动驾驶,或者其中的一些环节。什么是大模型到底什么是“大模型”?其实“模型”就是一段计算机程序,用来构建一个虚拟的神经网络。和生物的神经网络类似,只有刺激到一定程度,神经才会活跃。如果再强化刺激,就会输出活动。这其实就是多段函数的表达。神经网络模拟任意连续函数,也就成了可能。上世纪80年代之后,这些计算机概念就建立起来,并在自动驾驶上应用,但一直没有大的突破。原因在于参数量。这是ChatGPT火起来的重要原因。OpenAI公司发现,模型参数如果多到一定程度,系统智能(模型精度)就会极大提升,原理现在无法解释,但已经有了一个词汇来形容——“涌现”。多到什么程度呢?至少要1亿左右。因为自然语言的信息密度高于图像,所以ChatGPT-2的参数量达到15亿个,而ChatGPT-3则达到1750亿个,刚好和人类神经元数量级别差不多。自动驾驶方面的应用,现在用不了那么多参数。因为“涌现”现象尚未在计算机视觉领域出现。考虑到成本,车企们都未将大模型参数量做到ChatGPT-3那么夸张。但上亿是没跑的,否则就很难叫大模型,需要部署超算中心或者云端算力中心,来运行如此之多的参数。运行参数用来做什么?对自动驾驶系统进行数据训练。那么大模型定义就呼之欲出了,就是拥有大量参数、运行于大算力硬件平台上,并能够完成无监督学习(自我训练)的计算机程序。自动标注和预标注以前都是有监督学习(人工训练),现在让AI自我训练,就需要先完成数据闭环。这就是为什么几家新势力说自己拥有“自动化数据标注系统”的原因,其实就是大模型的一个功能。而完整的数据闭环则囊括了数据采集、数据回流、数据处理、数据标注、模型训练、测试验证诸多环节。“数据标注”是AI自我训练的前提,也是AI训练的成本节点。所谓标注,就是给视频或者图像的关键信息点贴上标签,以便让系统认识并在实际操作中做针对性规划。显然,量产车采集的场景基本都是重复的,数据意义不大。专门采集车则比较贵(成本每天6000元-10000元)。重点是,如何尽量多地搜集到“长尾场景”,即不常遇见,但驾驶了很多次之后,每个人几乎都会遇上的场景(占5%左右)。在大模型上线前,都是人工标注。1000帧的视频数据,人工标注成本可能达到万元。而大模型目前最有价值的部分,莫过于自动化数据标注,可能会节约上亿元(取决于替代多少人标注数据)。特斯拉为了打造一套高效数据闭环系统,自研了超算中心。超算的另一个作用,就是有了基底训练数据——超过20亿公里,就不太依赖新的实际路采了。大模型会改变参数,在电脑里面重建场景,自动进行长尾场景的自我训练。比如采了白天的数据,稍微改一下,就变成黑夜、雨天,或者有司机急打方向盘、急踩刹车造成的混乱等等,都可以模拟。在超算上运行的大模型,对长尾场景自动进行“预标注”。而后续还要进行人工审核,譬如要把漏标的框标注出来、把标注错误的框删掉、把框的大小统一等。如果大模型预标注做得好,那么后续人工审核工作量就很小了,与采用人海战术对每一个图像要素进行标注,完全不可同日而语。新的合作方式数据闭环的工作现在已经分割给外包供应商、大模型平台公司(也可以视为供应商)和车企分别来做。关键在于,数据闭环能否让车企有效迭代自动驾驶算法,并提升应对偶发场景的能力(这几乎是L4绕不过去的坎)。落实到使用层面,通过多方合作,基于新的标注数据,进行新的训练,实现由数据闭环驱动自动驾驶软件迭代,并通过OTA部署到终端。很少有车企能够彻头彻尾地自己部署基础大模型,自己搞定应用层,自己设计预标注并实现数据闭环,再驱动算法更新。这即是L4的进化之路,它的技术复杂度要求车企与供应商充分融合式合作,而非传统的供应商“交付”-主机厂应用。车企过于看重价值链全盘掌握,强调全栈自研,可能会耽误迭代进程。如果设计一种规则,比如基础层大模型由平台级公司设计,车企负责掌握标注规则,并将后续人工审核交给另外的第三方,拿回标注好的数据之后,自己进行训练。通过任务拆解,让自己处于自动驾驶价值链的核心地位。避免在关键技术上受制于人,也不用被迫接受“全家桶”(即由某个供应商提出软硬一体的解决方案)。车企对这种方式应该驾轻就熟,现在球踢回供应商这边,要求后者也要主动参与到车企的大模型设计和训练当中,而不必执着于“打包交付”。虽然上马大模型的车企越来越多,但是已经实现数据闭环,并部署于量产车上的,几乎没有。大家都还在拼“谁先抵达下一个节点”。好消息是,L4看上去并非那么遥不可及了。现在的问题是,一个主机厂面对好几个自动驾驶系统供应商。各个供应商提供的每一个模块,代码质量不一,工具链可能也不相同。如何检验不同供应商的模块是否存在冲突,目前的工程化还不够成熟。这就涉及到,新获得的长尾数据,对决策(规划)产生的影响到底是什么。有些新增数据,上了模型训练之后,效果变好(有效应对了该场景),但总体上效率下降。这样的局部改善导致整体变差的情况,需要对全局价值进行一番预评估。这是另外的话题了,不展开。转移模型到车端不过有一点需要澄清,大模型部署于超算中心或者云端,但很难部署于车端。因为后者没有那么强的算力,而且车端的数据存储空间也不胜任。大模型的训练也要在超算平台上完成,训练得差不多了(改善可以无终点),就能上车,大模型就必须缩窄成中模型或者小模型。数据需要压缩,将知识体系(从感知输入到规控输出)转移到轻量级的模型上,后者是车端算力和存储可以承受的。这其实就是“端到端”的算法。很多人都将“端到端”视为自动驾驶算法的终极形态。所谓“端到端”,即只要有原始数据输入(环境感知),就可以输出结果(操作动作),和ChatGPT类似,中间过程对观察者来说是“黑盒子”。虽说人类不需要理解决策过程,但人们总担心自动驾驶算法会输出匪夷所思的决策。大量实践结果没问题,也不能打消顾虑。不过这很像人类驾驶了。熟练司机从眼睛看见,到转方向盘、踩刹车或油门,都是中枢神经在工作,人类没有觉得自己花时间思考了。这就是大脑的“预训练系统”在起作用。转移模型还有个好处,就是避免了云与车端通讯的时延问题。车端AI反应都是毫秒级,如果指望云端给出关键规划,哪怕有边缘计算加持,通讯也不能在任何时候实时保障。云端的作用,可以发挥大模型的参数容量优势,完成数据挖掘、自动数据标注等任务。在车端,可以部署分管不同子任务的多个小模型,合并成一个“中模型”,以节省车端计算环节的推理时间,增加安全性。不过车端模型的参数量,要比云端少一到两个数量级。为了提升ChatGpt的能力,OpenAI在8年间耗费十亿多美元的训练成本。车企大概率不会付出那么高的成本(不过特斯拉超算中心就花了10亿美元)。如何用有限资金,抢占场景落地和商业化的速度(即训练迭代速度),而非一味追求模型之大、算力之强?既然AI的应用已经走到了利用大模型实行空间(再现物理空间)计算这一步,那么L4就有可能实现。这是所有车企应该具备的能力,无论它们采用什么方式达致这一目的。汽车变身为行走的计算终端,汽车的革命性形态,已经出现在视野,不再遥遥无期。现在就参与大模型构建和应用,而不是置身事外,就显得比较重要了。【本文来自易车号作者汽车人传媒,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】 -
濮阳江贞威撰文 / 涂彦平 编辑 / 黄大路 设计 / 赵昊然ChatGPT在这个春天霸占了中文互联网,普通人面对它多生出兴奋和焦虑交织的复杂情绪,而大公司不甘落后,纷纷宣布自己也在做类似的AI大模型。继3月16日百度发布文心一言之后,4月7日,阿里云官宣大模型通义千问开始邀请测试。4月8日,在人工智能大模型技术高峰论坛上,华为云人工智能领域首席科学家田奇分享了盘古大模型的进展及应用。他透露,华为盘古大模型正在推动人工智能开发从“作坊式”到“工业化”升级。有多场大模型相关发布会扎堆举办。4月10日,商汤“日日新SenseNova”大模型体系问世;4月11日,毫末智行自动驾驶生成式大模型DriveGPT雪湖·海若发布;由昆仑万维和奇点智源合作研发的天工大模型3.5发布在即,并将于4月17日启动邀请测试;5月6日,科大讯飞“1+N认知智能大模型”即将发布……互联网巨头、人工智能公司、智能硬件公司、自动驾驶公司等各方力量,都积极参与到大模型这一场盛宴中来。行业监管也迅速出手。4月11日,国家网信办发布通知,就《生成式人工智能服务管理办法(征求意见稿)》面向社会公开征求意见。根据计算机科学家、自然语言模型专家吴军的说法,ChatGPT背后是一个叫做语言模型的数学模型在发挥作用,这项语言模型技术早在1972年就已经有了,是由他的导师弗莱德里克·贾里尼克(Fred Jelinek)在IBM期间带领团队研发出来的。只是到了由于算力不断提升,语言模型已经从最初基于概率预测的模型发展到基于Transformer架构的预训练语言模型,并逐步走向大模型的时代。复旦大学计算机学院教授、MOSS系统负责人邱锡鹏曾这样描述大模型的能力飞跃:“当模型规模较小时,模型的性能和参数大致符合比例定律,即模型的性能提升和参数增长基本呈线性关系。当 GPT-3/ChatGPT 这种千亿级别的大规模模型被提出后,人们发现其可以打破比例定律,实现模型能力质的飞跃。这些能力也被称为大模型的‘涌现能力’(如理解人类指令等)。”每当有革命性的技术诞生,无一不是由其在具体行业的商用化应用来实质性地推动行业进步。作为连接技术生态和商业生态的桥梁,大模型也将在很多行业应用落地。只是,这波来势凶猛的大模型热,究竟会催生万物生长改变万千业态,还是继区块链、元宇宙之后又一个看上去很美的泡沫?无限想象空间?特斯拉将Transformer大模型引入自动驾驶领域中,拉开了AI大模型在自动驾驶领域应用的开端。大模型在自动驾驶行业的应用将提升系统的感知和决策能力,已经被视为自动驾驶能力提升的核心驱动力。4月2日,百度正式发布百度自动驾驶云Apollo Cloud2.0。百度智能驾驶事业群副总裁、智能网联业务总经理高果荣表示,Apollo Cloud2.0基于大模型实现了自动驾驶数据智能的搜索引擎,大模型的能力积累了自动驾驶数据智能的搜索引擎,从海量数据中能够精准找到自动驾驶面向不同场景的数据。“在自动驾驶领域,BEV(Bird\'\'s Eye View,鸟瞰视图)是当前主流的技术路线,未来可以朝着多模态、通用智能的方向发展。”商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚表示。他认为,在通用人工智能时代,输入提示词和多模态内容,就可以生成多模态的数据,更重要的是,可以用自然语言生成对任务的描述,用非常灵活的方式覆盖大量的长尾问题和开放性的任务,甚至是一些主观描述。王晓刚举了一个例子来说明AI和AGI处理任务的不同。给定一张图片,判断是否需要减速,AI和AGI的反应有什么不一样呢?现有的AI系统,会首先做物体检测,然后再物体框里做文字识别,最后做决策。整个过程中每一个模块都是事先定义好的任务。而在通用人工智能下,给定图像,人们只需要用自然语言去问问题,“这个图标是什么意思?我们应该做什么?”模型本身不会发生变化,它会通过自然语言的方式给出一系列逻辑推理,最后得出结论。它会说,“前面限速30公里/小时”“前面100米是学校区域”“有小孩”“应该小心驾驶”“将车速降到30公里/小时以下”等。王晓刚还指出,智能驾驶汽车领域有“数据飞轮”的说法,通用人工智能时代则会产生“智慧飞轮”,人和模型之间可以互动,通过人的反馈,模型能更好地理解人需要它展示什么样的能力,而去解锁更多技能。从数据飞轮升级到智慧飞轮,可以实现人机共智。商汤基于多模态大模型,可做到数据的感知闭环和决策闭环。从前端自动采集高质量的数据,到利用大模型进行自动化的数据标注和产品检测,“能够几百倍地提升模型迭代的效率并降低成本”。华为云EI服务产品部总裁尤鹏也表示,“整个数据标注是整个自动驾驶领域准确率、效率、成本最高的一部分”,这部分的效率直接影响到自动驾驶算法和驾驶等级的提升。他透露,华为云正在做预训练标注大模型,支撑后续的自动驾驶算法的训练,可能会在几个月后会发布。除了自动驾驶,很多行业人士相信,智能座舱也将在大模型的赋能下有着质的提升,尤其将为人机交互打开新的大门。百度集团资深副总裁、智能驾驶事业群组总裁李震宇认为人工智能将重塑汽车空间,人与汽车的关系将会截然不同。“我们相信每辆汽车都会搭载一个数字虚拟人。未来的数字虚拟人不仅可以模拟人的外形,还可以注入灵魂,真正拥有对人类意图的理解……同时也不再是单一以前场景的车机助理的身份,而会转化成全能助理。”他相信,随着通用人工智能的发展,智能座舱将成为汽车创新的新焦点,将会重塑其空间,届时用户和车企之间的距离将缩短,用户和品牌之间的关系将更为紧密。“拥有自然语言交流能力的智能车可以让车企与用户直接进行一对一的对话。当汽车成为全能助理后,车企将面对用户需求爆发式的增长。”王晓刚称,在智能座舱板块,通用人工智能可以使基模型具备对空间环境的理解、用户状态的感知、多模态指令解析及多轮逻辑对话、内容生成等一系列能力,进而赋能包括情绪感知、智能助手、基于情感的对话、创意内容生成、个性交互等一系列功能,不断地提升个性化体验,进一步拓展应用场景。“智能汽车是通用人工智能实现闭环的一个非常好的场景,我们已经有人机共驾。”王晓刚表示,“未来我们希望车和模型之间能够产生更有效的互动,那就完成了从人到车到模型这样一个互动闭环,能够让通用人工智能为我们提供更好的驾乘体验,解锁无限的想象空间。”只是,消费者距离这种有着“无限的想象空间”的汽车生活还有多远,没有人说得出答案。希望在于将来想象是美好的,挑战也随之而来。“过去我们一年要做大概1000万帧的自动驾驶图像的人工标定,请外包公司进行标定,大概6到8元钱一张,一年的成本接近一个亿。但是当我们使用软件2.0的大模型通过训练的方式进行自动化标定,效果会非常可怕——过去需要用一年做的事情基本上三个小时就能完成,效率是人的1000倍。”理想汽车创始人、董事长兼CEO李想OK表示,“对于员工来说,他们会感觉用拳头打架遇到了拿枪的。”他认为,在这样的状况下,如何能够让软件2.0和现有人才进行融合,为他们提供怎样的全新工作流程、激励机制,如何去选用任用人才,给全行业提出了挑战。更大的挑战可能还在于中外大模型技术的差距。3月25日,在2023中国发展高层论坛上,360创始人、董事长兼CEO周鸿祎表示,目前来看,中国大语言模型和GPT-4的差距在两到三年时间,GPT的技术方向已经明确,不存在难以逾越的技术障碍,中国在场景化、工程化、产品化、商业化方面拥有巨大优势,应当坚持长期主义精神,迎头赶上。4月9日,由中国人工智能学会主办的人工智能大模型技术高峰论坛上,融汇金信CTO李长亮认为,未来做通用大模型的和做场景的分层很清晰,没有中间态。做通用大模型需要大量的算力、数据、人员、资源等,只有有很强技术储备和资源调配能力的大公司才能做,中小创业公司在这条赛道上会很难;在垂直应用上,基于大模型的发展,结合场景的know-how做一些创新应用,则会有无数的企业诞生。他还认为,中国在大模型这个产业赛道上是很有机会的,因为在中文场景下,我们更懂我们自己的语言,沉淀了大量的中文知识,会迅速追赶并超越。我们也注意到,计算机科学家、自然语言模型专家吴军在4月3日晚得到的一场直播中则给当下的ChatGPT热泼了盆冷水。他直言ChatGPT在中国被过度炒作了,中国的大部分研究机构是做不了的。在他看来,ChatGPT的原理很简单,但是在工程上要想做到,其实蛮困难,因为ChatGPT太耗资源,光硬件的成本就要差不多10亿美元,这还没算电钱。ChatGPT训练一次要耗多少电?吴军的说法是,大概是3000辆特斯拉的电动汽车,每辆跑到20万英里,把它跑死,这么大的耗电量,才够训练一次。这是非常花钱的一件事。他的结论是,ChatGPT不算是一项新的技术革命,带不来什么新机会,最后可能的一个结果就是给几家大的做云计算的公司交钱。由ChatGPT带起的大模型热,最终会在各行各业开花结果,还是盛名之下其实难副?不妨把这个问题交给时间。本文由汽车商业评论原创出品转载或内容合作请联系说明违规转载必究【本文来自易车号作者汽车商业评论,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】 -
虞寒韦筠百度文心一言是每日更新的一句古诗词,旨在激发读者的思考,增强文人文魂。我期待文心一言能够带给我更多美好的文学体验,更深刻的文化意境,以及更多有趣的历史故事。进入3月中旬,全球科技巨头再次竞相亮相大语言模型赛道。一周之内,开发出ChatGPT的美国初创公司OpenAI,对OpenAI投入巨资的科技巨头微软,以及中国互联网龙头企业百度,相继发布了在大语言模型(LLM)领域的最新动态。这也再次引发了全球对该领域的关注。当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4,它比GPT-3.5的问答质量和技术都有明显提升。3月16日下午,百度开启新一代大语言模型、生成式AI产品文心一言测试,从而成为第一家加入该赛道竞争的中国企业。在发布会现场,百度创始人、董事长兼首席执行官李彦宏通过问答的形式,展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等五个使用场景。几个小时后,微软宣布,将把GPT-4接入Office全家桶,新名为“Microsoft 365 Copilot”。正如财经E法在2月17日发布的文章(OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?)所述,中国内地和中国香港的手机号均无法注册ChatGPT账号。虽然OpenAI的应用程序编程接口(API)已向161个国家和地区开放,但不包括中国内地和中国香港。一方面,业界普遍关注,在AIGC(生成式人工智能)势不可挡的科技浪潮中,谁将成为下一个弄潮儿?另一方面,在中美科技竞合的敏感期,各方亦颇为关注百度迈出的第一步带来的涟漪,以及中国企业该如何应对。01“真的ready了吗?”3月16日,李彦宏身着白衬衫和运动鞋演讲。开场就直面疑问,“最近一段时间,很多朋友问我,为什么是你们真的ready了吗”?李彦宏的回答是,虽然百度已投入AI研究十多年,为发布文心一言做了充分准备,但“不能说完全ready了”,因为文心一言对标ChatGPT、甚至是GPT-4,门槛很高,还“有很多不完美的地方”。但他强调“一旦有了真实的人类反馈,文心一言的进步速度会非常快”。李彦宏解释,之所以选择当天发布,是因为市场有需求:客户和合作伙伴都希望能早一点用上最新最先进的大语言模型。如何理解李彦宏所言的“对标GPT-4的门槛很高”?当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4。GPT-4是大型的多模态模型,即能够接受图像和文本类型的输入。而GPT-3.5只能接受文本输入。在演示视频中,OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)用笔和纸画了一幅网站草图,并将图片输入GPT-4。仅1到2秒后,GPT-4就生成了网页代码,制作出了与草图高度相似的网站。根据OpenAI发布的实验数据, GPT-4模型相较前一代GPT-3.5已取得了巨大的进步,在许多专业测试中表现出超过绝大多数人类的水平。浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林认为,文心一言未来还有待全面开放来获得用户检验。无论是通过B端API还是直接向C端用户开放,用户体验口碑都是硬道理。当前ChatGPT没对中国用户开放,在国内市场,百度将获得先发优势。对OpenAI和百度的产品均做过测评的艾媒咨询CEO兼首席分析师张毅表示,GPT系列大模型,包括GPT-4与文心一言本质上都是同一类产品,只是它们各自的数据覆盖范畴和数据模型的积累长短不一。从短期看,OpenAI的产品准备时间相对更加充足,智能程度暂时领先一些。但是对文心一言而言,能在这么短的时间内训练出这样的一个产品,也是非常了不起的。张毅也对百度做出更好产品更有信心,他的理由是,从人工智能、大数据、大模型的人才储备来看,中国会更有优势。中央财经大学数字经济融合创新发展中心主任陈端则认为,与海外竞争对手相比,百度最大的优势是立足本土,构建了语言和文化层面理解的护城河。作为中国公司研发的大语言模型产品,文心一言的中文理解能力备受关注。重要原因是,此前很多评论人士认为,ChatGPT的中文问答能力不如英文问答能力强。李彦宏表示,作为扎根于中国市场的大语言模型,文心一言具备中文领域最先进的自然语言处理能力。在现场展示中,文心一言正确解释了成语“洛阳纸贵”的含义、“洛阳纸贵”对应的经济学理论,还用“洛阳纸贵”创作了一首藏头诗。李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。发布会前后,百度的股价经历了大落大起。3月16日,港股百度盘中股价跌幅一度扩大超10%,报120.1港元。截至收盘,百度股价跌幅为6.36%,报125.1港元。但百度股价在美股势头强劲,当日百度美股开盘低开高走,振幅超7%。截至收盘,报138.16美元,涨幅为3.8%。3月17日,百度港股表现强势,盘中一度大涨超15%。截至当日收盘,百度港股涨幅为13.67%,报142.2港元。文心一言宣布开启邀请测试一小时内,排队申请文心一言企业版API调用服务测试的企业用户已达3万多家,申请产品测试网页多次被挤爆,百度智能云官网流量飙升百倍。文心一言的市场热度持续飙升,资本市场也给予了价值重估。张毅认为,这也代表了公众对大语言模型/生成式AI “既期待,又担忧,然后是希望”的心情。02谁都不能错过的科技革命“真的ready了吗?”并不仅针对百度,也是伴随此轮“ChatGPT”热潮以来,公众普遍的疑问。李彦宏观察到,从2021年开始,人工智能技术开始从“判别式”向“生成式”转变。创新工场董事长兼CEO李开复3月14日在一场趋势分享会上表示,AI 2.0时代的第一个现象级应用,就是以GPT-4为代表的AIGC,又称生成式AI(Generative AI)。李开复表示,AI2.0 是绝对不能错过的一次革命,它将会是一个巨大的平台性机会,这个机会将比移动互联网大十倍。他还表示,AI 2.0也是中国在AI领域的第一次平台角逐机会。受访专家普遍认为,此前全世界的AI企业都遇到了一个极大的问题:即使技术储备十分丰富,AI应用并没有给它们带来丰厚的收益。造成这一问题的原因在于,AI产品的应用主要集中在B端(企业用户)和G端(政府用户),AI产品在进入企业或机构时往往流程复杂,这在某种程度上会限制AI产品在市场上的快速扩张。张毅认为,AIGC的产品应用方向在C端更有可能产生巨大的商业机会。他分析说,在美国市场,此前C端市场被谷歌、亚马逊、Meta等企业抢占,让微软压力非常大,更需要一款产品来扳回一局。在中国市场,百度的优势和谷歌一样,都有强大的搜索引擎对数据的抓取能力,以及储存、整理、分析能力的基础。中国本身拥有十几亿人口的巨大市场,百度完全可以做得很优秀。“百度和微软、谷歌本质上是两个不同市场的竞争,所以我相信文心一言以及系列产品也一定会跑出来。”张毅说。李彦宏坚称,文心一言不是“中美科技对抗的工具”。但他也承认,ChatGPT 的成功,加快了百度推出该产品的进度。百度CTO王海峰表示,人类进入AI时代,IT技术的技术栈可以分为四层:芯片层、框架层、模型层和应用层。百度是全球为数不多、在这四层进行全栈布局的人工智能公司,在各个层面都有领先业界的自研技术。高端芯片昆仑芯、飞桨深度学习框架、文心预训练大模型以及搜索、智能云、自动驾驶、小度等应用。王海峰认为,百度全栈布局的优势在于,可以在技术栈的四层架构中,实现端到端优化,大幅提升效率。文心一言与ChatGPT一样,都使用了SFT(模型微调)、RLHF(从人类反馈中进行强化学习)以及Prompt(提示)作为底层技术。文心一言还采用了知识增强、检索增强和对话增强技术。王海峰表示,这三项是百度已有技术优势的再创新。陈端认为,在当前技术创新的集成性越来越高的当下,全栈式布局的单一公司在内部技术研发统筹能力和后期商业化进行中的协同能力上具有比较优势。信心很重要,但差距无法忽视。在本月初的两会期间,中国科技部部长王志刚在回应ChatGPT相关的问题时,用足球打比方,指出中国还有很多工作要做。“踢足球都是盘带、射门,但是要做到梅西(足坛巨星利昂内尔·梅西)那么好也不容易。”王志刚指出,中国在这方面也作了很多布局,在该领域的研究也进行了很多年,并且有一些成果,“但目前要达到像 OpenAI 的效果可能还要拭目以待”他补充道。王志刚说,ChatGPT出来以后,引起了大家的关注。实际从技术本身源头来讲,它叫做NLP、NLU,也就是自然语言处理和自然语言理解。ChatGPT之所以引起关注,在于它作为一个大模型,有效结合了大数据、大算力、强算法,计算方法有进步。同样一种原理,做得有区别。比如大家都能做出发动机,但质量是有不同的。无论是ChatGPT还是文心一言,其背后的大语言模型是核心竞争力。北京大学王选计算机研究所研究员赵东岩告诉财经E法,国内大模型在数据、训练方法和费用投入方面和OpenAI还有一定差距。一位科技系统人士则对财经E法指出,客观而言,中美目前在该领域的基础研究成果差距较大。这些基础研究成果包含自然语言处理(NLP)、数据库、GPU产品,“美国切断GPU芯片(的供应),(中国的)算力就跟不上”。大型算力的核心在于高性能GPU芯片。北京航空航天大学软件学院助理教授周号益告诉财经E法,在GPU芯片等计算硬件上,中国与国际的差距在十年左右,硬件水平会严重制约大语言模型以及科学计算类模型的发展。周号益认为,在技术和模型上,中国的科技公司与OpenAI并没有代差,差距仅在五年以内,在一些较小的技术领域差距只有2-3年。在数据采集方面,以GPT-3大模型为例,其训练的语料中中文只占5%,中国科技企业对中文语料的积累具有一定优势,因此极有可能在中文领域实现突破。03巨头下一步:构建生态对于以ChatGPT为代表的大语言模型赛道如何实现盈利,是各方公认的难题(ChatGPT爆火的冷思考:盈利难题与治理挑战)。开发出ChatGPT的OpenAI仍是一家亏损中的创业公司。而2023年1月,投资银行摩根士丹利(Morgan Stanley)的一份分析报告称,ChatGPT的一次回复成本大约是谷歌搜索查询平均成本的6倍-28倍。但腾讯研究院高级研究员曹建峰和经纬创投前副总裁庄明浩都认为,ChatGPT能带来多少盈利,并不是OpenAI关注的重点,重点是基于它的模型能长出什么样的服务和应用,从而构建起一个生态系统。“ChatGPT的发展需要一个产业生态,比如它和微软相关应用的融合就是很好的思路。”曹建峰说。当地时间3月15日,微软副总裁兼消费者首席营销官余瑟夫·梅迪发文表示,新版必应搜索引擎已经在 GPT-4 上运行。另据OpenAI披露,GPT-4是在微软Azure AI 超级计算机上进行训练的,并将基于Azure 的AI基础架构向世界各地的用户提供 GPT-4服务。谷歌则宣布开放其大语言模型PaLM的API接口,并推出面向开发者的工具MakerSuite。通过PaLM API 接口,开发者们可以将PaLM用于各种应用程序的开发。MakerSuite则可以让开发者快速对自己的想法进行原型设计,并且随着时间的推移,该工具将具有用于快速工程、合成数据生成和自定义模型调整的功能。微软迅速跟进。当地时间3月16日,微软宣布将把GPT-4接入Office全家桶。新功能名为“Microsoft 365 Copilot”。李彦宏则在发布会上表示,文心一言定位于人工智能基座型的赋能平台,将助力金融、能源、媒体、政务等千行百业的智能化变革。根据文心一言的邀请测试方案,3月16日起,首批用户可通过邀请测试码,在文心一言官网体验产品,后续将陆续开放给更多用户。百度智能云即将面向企业客户开放文心一言API接口调用服务。该服务于3月16日起开放预约。截至3月18日早11点,排队申请百度智能云文心一言企业版API调用服务器测试的企业用户增加到9万家,百度收到关于文心一言合作的咨询 6588条。陈端认为,这一轮的竞争,不仅是商业主体的竞争,实际上也是关乎下一轮国家数字竞争力的竞争。百度的当务之急不完全是技术层面的研发,也需要引领更多初创型企业、生态合作伙伴加盟生态阵营。在陈端看来,中国在构建生态系统上具有优势。陈端指出,中国的移动互联网经过多年发展,应用层生态化的配套创新已经非常成熟。应用层的很多中小微创业团队,在过去配合移动互联生态做了大量的局部、垂类场景端的创新,把过去的这种模式以及底层基础设施从移动互联迁移到大模型领域依然适用。04中小企业还有机会吗?面对大语言模型的浪潮,中国企业该如何抓住机遇,避免风险?布局ChatGPT的企业有两种类型:第一种是传统的互联网大公司,第二种是一些初创企业。陈端认为,目前市场上的初创公司已经错过了布局大模型的初始创业阶段。陈端分析说,重新打造生成式AI企业,跟时机、底层的生态支撑度,还有创始人自身的阅历、经验、视野、个人IP的自然调动能力都是息息相关的。大模型在前期的投入,不管是算力还是其他的成本,以及时间窗口都很重要。陈端表示,百度有能力把自己的其他的产品与文心一言协同,就像微软把Office与GPT-4协同推出Copilot,而“创业者单纯去拼大模型却没有配套生态,这是很成问题的”。张毅也认为,对于能够有资金、实力支撑的企业来讲,单独构建大模型产品可能会更受资本和创业者的青睐。但对于中小企业来讲,依托文心一言的开放平台去嫁接自己在细分领域的应用,也是一个不错的选择。因为要做出大语言模型,需要长时间,以及巨额资金的投入。OpenAI成功的背后,是微软多年来的巨额投入。美国时间2023年1月23日,微软宣布将对OpenAI进行为期数年、价值数以十亿计美元的投资。在2019年和2021年,微软曾向OpenAI两次投资。2019年的投资为10亿美元,而2021年的投资未公开金额。 AI公司“彩云科技”的创始人袁行远在接受36氪采访时指出,要想跑通一次100亿以上参数量的模型,至少要做到“千卡/月”这个级别,即:用1000张GPU卡,然后训练一个月。即使不用最先进的英伟达A100,按照一张GPU五万元的均价计算,1000张GPU意味着单月5000万的算力成本,这还没算上算法工程师的工资。“无论是哪家公司,都不可能靠突击几个月就能做出这样的大语言模型。”李彦宏在发布会上表示,深度学习、自然语言处理,需要多年的坚持和积累,没法速成。大模型训练堪称暴力美学,需要有大算力、大数据和大模型,每一次训练任务都耗资巨大。百度提供的数据显示,百度近十年累计研发投入超过 1000 亿元。2022 年百度核心研发费用 214.16 亿元,占百度核心收入比例达到 22.4%。但百度并未透露大模型研发在核心研发费用中的占比。李彦宏在发布会上表示,百度对文心一言的定位,是一个通用的赋能平台,金融、能源、媒体、政务等千行百业,都可以基于这个平台来实现智能化变革,实现效率提升,创造巨大的商业价值。李彦宏认为,大模型时代将产生三大产业机会,分别为新型云计算公司、进行行业模型精调的公司和基于大模型底座进行应用开发的公司,即应用服务提供商。李彦宏断言,对于大部分创业者和企业来说,真正的机会并不是从头开始做ChatGPT和文心一言这样的基础大模型,这很不现实,也不经济。基于通用大语言模型抢先开发重要的应用服务,这可能才是真正的机会。基于文本生成、图像生成、音频生成、视频生成、数字人、3D等场景,已经涌现出很多创业明星公司,可能就是未来的新巨头。“大模型、生成式AI最终的产品形态还不得而知,所以这条路注定是长跑,需要整个科技界在资本、研发、模式创新上密切、持续地跟跑。”张毅说。李开复认为,AI2.0会最先应用在能容错的领域,而毫无疑问最大的应用领域现在是内容创造。每个领域都可以把原有的App重写一次,创造出更赚钱的商业模式,最终AI2.0的生成能力会把成本降的几乎到0。
相关推荐
更多-
闽政通大数据多久更新 1个回答
-
人工智能什么短语类型 1个回答
-
怎么不花钱注册CHATGPT 6个回答
-
AI人工智能绘画可以画真人吗 1个回答
-
智能机器人不能吃饭怎么办 1个回答
-
大数据智能服务银行是什么 1个回答
热门服务
更多
暂无数据
最新问答
更多-
智能化机器人怎么用手机控制
2026-04-101个回答
-
大数据就业方向好吗女生
2026-04-101个回答
-
娱乐智能机器人有哪些
2026-04-101个回答
-
AI绘画值得做吗现在
2026-04-101个回答
-
智能机器人有没有感情
2026-04-101个回答
-
健康宝大数据中心归属哪个
2026-04-101个回答
-
智能机器人推荐有哪些优势
2026-04-101个回答
-
AI绘画作品有什么用
2026-04-101个回答