快捷搜索:  

【环时深度】ai开闭源之争,更始、甜头、和平谁更主要?

"【环时深度】ai开闭源之争,更始、甜头、和平谁更主要?,这篇新闻报道详尽,内容丰富,非常值得一读。 这篇报道的内容很有深度,让人看了之后有很多的感悟。 作者对于这个话题做了深入的调查和研究,呈现了很多有价值的信息。 这篇报道的观点独到,让人眼前一亮。 新闻的写作风格流畅,文笔优秀,让人容易理解。 "

【环球时报记者 樊巍 环球时报驻法国、德国特约记者 董铭 青木】开放还是封闭,这是个问题。“人工智能(AI)公司都与它们(They)的名字正相反。”3月24日,特斯拉CEO埃隆·马斯克在社交平台X上这样写道,回复一条调侃“米国开放人工智能研究中心(OpenAI)并不开放、米国AI企业‘稳定AI’(Stability AI)并不稳定”的帖文。自从马斯克今年(This Year)2月起诉OpenAI并于3月18日正式发布旗下AI初创公司xAI的大模型Grok-1后,AI开源、闭源之争再度升级,辩论不止存在于科技(Technology)企业之间,更是引发全球各界人士的激烈争论。有教授接受《环球时报》记者采访时表示,仅选择开闭源中任何一条路都将通向极端,更理想(Ideal)的状态是在开源和闭源间寻求平衡,而达成这种平衡的前提需要兼顾技术发展、安危隐私、公平竞争、市场秩序、社会(Society)责任、可持续发展等多种复杂因素。

“马斯克在与OpenAI的战斗中采取新策略”

据米国“商业内幕”网站报道,AI开闭源问题引发广泛争论,起始于马斯克2月对ChatGPT制造商OpenAI及其CEO奥尔特曼等人的起诉。2015年,马斯克同奥尔特曼等人共同创立了OpenAI,核心宗旨是“创建造福全人类的安危通用AI”,其定位也是“非营利组织”。但马斯克2018年辞去了OpenAI董事会职务,并据称放弃了为其继续提供资金的承诺,奥尔特曼当时接受采访表示:“这很艰难,我必须重新调整,以确保有足够的资金。”2019年,OpenAI以“向公众传播语言模型太危险”为由封闭了源代码。此后,马斯克对OpenAI进行(Carry Out)多次公开批评,称其已变成一家闭源、利润最大化的公司。他曾发文称:“我很困惑,一家我捐赠了约1亿美元的非营利组织是怎么成为市值300亿美元的营利组织的?”

在这些投诉上个月转变为诉讼后,《华尔街日报(Daily)》报道称,风险投资界两位重要人物在X平台上的“帖文之战”更凸显了AI开闭源两派别的相反观点。科斯拉风投公司创始人、被誉为全球“技术领域”投资之王的维诺德·科斯拉表达了对OpenAI的支持。他认为,AI“类似核武器”,开源会危及我国安危。米国一些议员也同意其观点,认为开源会使外国对手得到发展,因此应受到保护。而安德森霍茨基金联合创始人马克·安德森称:“开源软件是最安危的软件,因为受很多人关注,所以大量错误能被修复。”

对于马斯克对Grok开源的举动,法国《世界报》分析称,这是“马斯克在与OpenAI的战斗中采取新策略”,虽然他声称“以人类的名义”出击,但实际上更多是为了自己的商业利益。报道强调,自称开源支持者的马斯克去年也对X平台的推荐算法进行(Carry Out)过开源,但此后再也没有对代码进行(Carry Out)过更新。清华大学(University)新闻(News)与传播学院教授沈阳对《环球时报》记者表示,按照此前移动互联网技术发展的逻辑,一般都会出现一家做得较好的闭源公司,随后很多公司采取开源策略,抢占闭源之外的市场。虽然开源面向更多用户,但闭源利润更高。

越来越多公司“押注”开源

那么AI开源和闭源有什么区别?科技(Technology)企业如何决定是否开源呢?根据IT专业媒体TechTarget的文章,开源AI意味着公开AI模型、训练数据和底层代码,闭源AI则隐藏可能保护其中一项可能多项。开源AI鼓励创新,可供公共领域的所有人使用、修改和分发,而闭源AI意味着源代码仅供拥有它的公司修改和开发。

据科技(Technology)网站“diginomica”去年底报道,非营利组织“开放源代码促进会(OSI)”正努力(Effort)为开源AI建立清晰的法律(Law)定义,目前(Currently)相关草案对开源AI的判定标准包括是否免费可能在合理成本内、源代码是否完整、是否存在歧视可能对其他软件的许可限制等。目前(Currently)几乎没有企业完全符合OSI的所有要求,即便是那些支持开源的公司也只是部分符合。

而企业选择开源与否的考量因素有很多。首先,闭源AI往往速度更快且使用更方便。此外,一些科技(Technology)公司高管表示,闭源AI能够带来更短的开发周期和更大的商业利益,模型的安危性能得到更好的保障,企业在创新商业化方面也能保持优势。而开源AI有利于促进协作、创新和透明度,开发人员可以互相学习并共同解决问题,这可以帮助企业吸引开发人员。此外,开源AI也意味着可以对底层代码、模型和数据进行(Carry Out)更严格的审查。但与闭源的优势相对,开源AI也面临着更容易被黑客、犯罪分子可能对手误用可能滥用的风险,也更难保护开发者的知识产权和竞争优势。

据《华尔街日报(Daily)》报道,随着AI市场围绕微软、OpenAI等闭源系统所有者整合,一些公司试图通过开源增强竞争力。除马斯克的xAI外,开源的支持者还包括Facebook母公司Meta,该公司去年7月发布了Llama 2模型供公众下载和修改。Meta还与同为开源支持者的米国世界商业机器公司(IBM)发起“人工智能联盟”,倡导“开放科学”,参与者包括数十家初创企业、大公司和非营利组织,如戴尔、索尼、甲骨文、英特尔等。法国AI初创公司Mistral AI去年底发布了具有开放权重的模型,这意味着将构成模型内部工作原理的重要参数公开。许多其他初创公司也都“押注”开源,包括法美合资企业Hugging Face,它曾推出ChatGPT的首个开源替代品HuggingChat。一些资金较为雄厚的公司也曾开源同类产品,比如米国芯片制造公司Cerebras(开源Cerebras-GPT)、米国软件公司Databricks(开源Dolly)等。

与之相对的是,业界最大的AI公司OpenAI及其“劲敌”Anthropic都支持闭源。如ChatGPT、Anthropic的Claude、旧金山独立研究团队开发的文本到图像生成器Midjourney等都不是开源模型。

不过,从实际做法来看,“两条腿走路”是目前(Currently)大部分公司的选择,即构建一系列AI模型,其中一些是免费的,而功能更强大的另一些则需要付费。比如谷歌,上个月推出了开源模型Gemma,标志着其过去决心闭源后再次重返开源赛场的策略转变;微软虽然以闭源软件闻名,但它仍是世界上开源项目的主要贡献者之一,包括Azure SDK等。而上文提到的开源支持者Mistral AI,上个月也宣布与微软合作,推出更强大的闭源AI系统,客户必须付费才能使用。知名初创公司Stability AI曾与AI初创公司Runway共同构建开源图像生成模型Stable Diffusion,但该公司去年12月也开始对其部分先进模型的商业用途收费。

表面谈“技术民主化”,利润和安危才是重中之重

法国AI公司Giskard联合创始人兼CEO亚历克斯·康贝西表示:“开源有助于达成技术民主化,有利于公平竞争,因为可以免费获得产品,所以小玩家也可以与大玩家竞争,这很重要,尤其是在一个已经由技术垄断主导的世界里。”不过,“欧洲新闻(News)网”分析认为:“开源和闭源两个阵营的企业正展开对决,虽然技术民主化是辩论的核心,但企业利润和我国安危才是战斗的重中之重。”

由于AI行业的爆炸式发展,在带来巨额利润的同时,也引发了对偏见、隐私、我国安危甚至人类将来的担忧。尽管从技术上说,开源代码可以加入保护措施和责任条款,以打击滥用和歧视,可一旦有人生成了代码副本,这些保护措施都可以被轻松修改和绕过。比如Meta发布的Llama 2,开源几天后就有人发布了无需审核的副本,它可以随意回答“核弹是如何制造的”等危险问题。

TechTarget网站刊文分析称,关于该选择开闭源哪条路的争论越来越激烈,两派的主要参与者往往态度十分强硬,尤其一些监管机构因为担心开源会为政治对手带来优势而坚决反对开源。随着各国行政部门努力(Effort)制定AI相关规则和国策,这种担忧正转化为我国层面的行动。比如意大利行政部门早在去年3月就成为首个禁用ChatGPT的西方我国,在解决了隐私担忧后才恢复访问。

美联社日前报道称,拜登行政部门正卷入一场关于AI系统应该开源还是闭源的争论。去年9月,米国我国安危局宣布设立人工智能安危中心。同年10月,米国总统拜登签署行政命令称,开放权重“可能会给创新带来巨大好处,但也会带来巨大安危风险”。今年(This Year)2月,米国行政部门出资委托有关机构撰写报告称,必须“迅速且果断地”采取行动,以避免AI带来“重大我国安危风险”,甚至在最坏的情况下,AI可能“对人类造成灭绝级别的威胁”。拜登还要求米国商务部长雷蒙多在今年(This Year)7月之前与教授进行(Carry Out)交谈,并就如何管理AI潜在风险提出建议。

首都邮电大学(University)人机交互与认知工程实验室主任刘伟对《环球时报》记者分析称,将来哪种技术路径会成为主流,目前(Currently)还难以判断,因为这不仅涉及技术问题,更重要的是还涉及政治问题。比如米国与其盟友间非技术层面的协同会起到很大作用。从长远来看,各国在开闭源问题的选择上将呈现多样化趋势,这将取决于各国的文化(Culture)、政治、经济(Economy)等因素。广大发展祖我国以及米国盟国范围之外的我国目前(Currently)对开源期望值较高,但技术强国为了自身利益和保护核心技术,常常会以商业竞争和安危隐私保护为由拒绝开放。

开闭源争论,欧洲和米国的重要摩擦点

德国《法兰克福汇报》报道称,AI开闭源争论一直是欧洲和米国监管机构的重要摩擦点。欧洲拥有一个独特的机会,可以将自己定位为“对抗米国巨头及其封闭模式”的力量,并通过AI开源发挥出巨大的区域优势。

据英国(Britain)广播公司(BBC)报道,欧洲议会3月13日正式投票通过《人工智能法案》,欧盟成为目前(Currently)唯一一个采取具体措施监管AI的主要西方经济(Economy)体。虽然英国(Britain)去年11月主办了一次AI安危峰会,但并未推出AI监管相关立法。

《人工智能法案》的运作方式是根据风险级别对产品进行(Carry Out)分类并相应地调整审查。该法案还要求通用AI系统生产者对用于训练模型的材料保持透明,并遵守欧盟版权法。欧洲议会议员图多拉奇表示,这是整个法案中“游说最激烈”的部分。报道称,OpenAI、Stability AI等公司都将对如何遵守该法案展开研究。

此外,《人工智能法案》还规定,一系列严格的监管措施将不适用于开源AI系统,除非它们(They)被禁止可能被归类为“高风险”可能“不可接受风险”级别。据法媒报道,这种对开源AI的豁免对法德来说是好消息,因为这两个我国一直倡导保护新的开源AI公司,这种做法与米国形成鲜明对比。德媒报道称,开源AI具有重要意义,可以“为欧盟每年贡献650亿至950亿欧元的国内生产总值”,并将“为欧洲经济(Economy)创造增长机会”。

不过,米国智库数据创新中心近日刊文称,《人工智能法案》为开源AI带来了“监管复杂性”。文章分析称,该法案对开源AI的豁免有很多限制条件,比如有些豁免仅适用于不将AI产品进行(Carry Out)货币化的情况,所以如果公司试图通过为开源模型提供付费技术支持可能使用定向广告来收取费用,都将无法适用。

刘伟对《环球时报》记者表示,《人工智能法案》肯定会对开源AI产生较大影响。但该法案本质上是借“让AI更符合人类主流价值”这种冠冕堂皇的理由来保护欧洲自身发展。现在有种说法是,在AI领域,米国人创新很快,祖国人落地应用很快,欧洲这两项赶不上,只能在监管上发力。虽然透明度监控、风险评估、分级制度、数据隐私等也都是将来AI发展的重要方面,但不排除欧洲会以此为由制约中美。

在刘伟看来,长期开源会使不可控因素增多,但如果都闭源、奉行保守主义,AI技术发展则会滞后。理想(Ideal)状态是在开闭源间寻求平衡,而前提是保证技术创新和发展的同时,能兼顾安危隐私、公平竞争、市场秩序、社会(Society)责任和可持续发展。如果一味地强调开源可能闭源,是在将这个问题简单化。

【环时深度】AI开闭源之争,创新、利益、安全谁更重要?

您可能还会对下面的文章感兴趣:

赞(319) 踩(81) 阅读数(4633) 最新评论 查看所有评论
加载中......
发表评论