Top
首页 > 正文

是时候给ChatGPT们降降温了

风险高、成本大、投资回报比难以短时间量化,这些复杂的因素似乎注定了ChatGPT只是互联网巨头的游戏。但也并不意味着初创公司没有机会。
发布时间:2023-03-24 15:12        来源:数字经济杂志        作者:赵卫卫

风险高、成本大、投资回报比难以短时间量化,这些复杂的因素似乎注定了ChatGPT只是互联网巨头的游戏。但也并不意味着初创公司没有机会。

一个细微的演示错误,让谷歌市值一夜蒸发1000亿美元;一个还未成形的概念,让数家互联网公司股价坐上过山车;一个饭局轻松敲定数亿美元的融资认购;这都是ChatGPT的魔力所在。

2022年11月,ChatGPT成为现象级的互联网产品;两个多月后,ChatGPT代表的AI应用成了互联网赛道的大爆款。

当美国ChatGPT已成,中国的ChatGPT到底还有多远?

风险高、成本大、投资回报比难以短时间量化,这些复杂的因素似乎注定了ChatGPT只是互联网巨头的游戏。但也并不意味着初创公司就没有机会。

无论是巨头还是创业公司,机会与风险并存,商业利益推动的ChatGPT炒作的热度中,更有必要重估对ChatGPT敲响警钟的声音。

无论如何,美国的ChatGPT和NewBing都将是中国玩家们的前车之鉴。

清醒的声音

相对于国内媒体和互联网从业者们对ChatGPT的热衷和追捧,OpenAI首席执行官SamAltman(山姆·阿尔特曼)对ChatGPT的理解要清醒很多。

他认为ChatGPT是一个糟糕的产品,主要是针对产品的现状,因为ChatGPT频繁出现错误的消息,以及设计的简单和很容易因为访问量过载出现崩溃。

“人们真的只是去访问一个有时能正常工作有时会宕机的网站”,阿尔特曼说。至于产品设计的简单,阿尔特曼承认,人们只是在ChatGPT输入一些东西,不断尝试直到答案正确,然后人们会复制答案到其他地方去,将搜索结果应用到其他工作流程中。

ChatGPT创造出了一种幻觉,那就是机器可以复制人类的行为,但其输出结果并不稳定,这是其遭到诟病的最大原因之一。

它既有趣也弱智,尤其是在一些细分领域,看似全知全能的ChatGPT展现出了“一本正经胡说八道”的一面,其很乐意编造事实或发明参考资料来支持其论点。

比如,前百度人工智能领域知名的科学家吴恩达曾在ChatGPT上问过一个问题:为什么算盘比计算机要快?

结果是,ChatGPT一本正经地论证这个结果。它的回答非常离谱,ChatGPT认为算盘运算的优势有三点,第一是具有高度的可移植性;第二是使用机械计算的原理;第三是使用了一个简单而直观的界面。

这种离谱的错误比比皆是,其非常影响用户对ChatGPT的信任。阿尔特曼清楚地认识到了ChatGPT的缺陷和问题,“ChatGPT是一个糟糕的产品,它真的不是为使用而设计的。”

但是,阿尔特曼一方面是对ChatGPT清醒的认识,另一方面则是对ChatGPT语言模型融入微软Bing搜索的赞美。

ChatGPT越是火爆,也就越是会暴露其缺点。其不善于追逐最新信息,谷歌和微软都强调,ChatGPT等的大型语言模型,每次更新信息内容时,都需要重新读取数量庞大的文献数据。因为很难频繁更新,所以模型内保存的信息大多比较旧。

作为ChatGPT制造商OpenAI背后持续多年的投资方,微软可能是这次ChatGPT的最大受益方。微软已经累计为OpenAI投资数十亿美元,并且在ChatGPT爆火之后,OpenAI希望获得微软和其他风险投资机构共计100亿美元的投资。

ChatGPT一系列缺陷已经逐步得到了修补。2月初,ChatGPT融合进微软搜索引擎Bing的消息已经得到了验证,一些受邀测试的用户以及体验到了NewBing中的更高阶版本的ChatGPT。

NewBing目前还没有完全开放,其使用页面上搜索模式可以切换成聊天模式,“欢迎来到新必应:你的人工智能答案引擎”(WelcometothenewBing:YourAI-poweredanswerengine),NewBing页面列举出了三个建议:“提出复杂的问题”“获得更好的答案”以及“获得创意灵感”。

在NewBing体验是相对跃升的体验,一方面把搜索结果和生成式对话融合,信息的时效性远超ChatGPT;另外一方面则是信息的准确性,NewBing在答案中增加了附加卡片和引用超链,这让回答看起来像是专业论文一样的引用方式。

“NewBing给我们上了一课,关于搜索引擎如何和生成式会话技术融合的一课。”有国内人工智能技术人员表示。

虽然NewBing比ChatGPT更强大也更聪明,但一个难以解决的问题是,人工智能答案引擎只能根据统计分析给出看似合理的答案,而不是真实的答案。

Newbing官方也曾承认,未来仍旧可能像ChatGPT一样,产生一些与事实不符的荒谬答案。所以至关重要的问题是,这些隐藏的问题会不会暴雷?

一个可参考的暴雷案例就是谷歌发布的类似ChatGPT产品Bard,其在广告片中展示回答詹姆斯·韦伯望远镜的问题,出现了一个明显错误,这导致谷歌母公司Alphabet损失了千亿美元,股价下跌多达9%。

所以有很多研究人员提出了一个值得玩味的问题:为什么谷歌的Bard出现一个错误就导致股价大跌,但ChatGPT出现很多错误,却并不影响其备受追捧?

硬币的两面

就像硬币的两面,在NewBing和ChatGPT代表的人工智能崛起面前,有人兴奋于新一代人工智能平台带来的机会与变化,就有人在这股商业力量推广的炒作中为ChatGPT们敲响警钟。

OpenAI创立时的初衷,第一条就是不希望类似IBM这样的大公司垄断和控制人类未来的重要技术,第二则是警惕AI对人类社会的潜在威胁,其要让更多人掌握和受惠于AI。

但事实上如今的发展证明了,其很快就成为了微软这样的科技巨头的工具。一位OpenAI的前员工就曾抱怨:公司所关注的重点更多地倾向于我们如何开发产品,而不是努力回答最有趣的问题。

如今,微软CEO萨蒂亚·纳德拉(SatyaNadell)都保持着冷静,他在CBS等媒体的采访中表露出谨慎,因为真正的问题是发生“失控的人工智能”,他承认与每一项新技术一样,重要的是要认识到潜在的负面后果,“这也是关于对任何新技术的意外后果保持清醒的认识”。

微软显然对未知的风险有所预估,在微软的官方博客中,其强调了要通过负责任的AI推进未来,而其三个关键目标分别是:必须确保以负责任和合乎道德的方式构建和使用人工智能;必须确保人工智能提升国际竞争力和国家安全;必须确保人工智能广泛而不是狭隘地服务于社会。

这些目标建立在微软对人工智能等技术变革的历史教训上,因为“人工智能必须服务于人”,而微软也展现出一个开放的态度,其不光要与其他科技公司携手,还要人工智能背后的工程师与各行各业各种思维方式的人聚集在一起,“技术比以往任何时候都需要受过人文、社会科学教育和具有高于平均水平的常识个体”。

而微软这番表达所回应的,恰恰是ChatGPT火爆以来的种种反思和批评,在技术得到广泛应用之前,微软们要获得更多的共识,还有很长的路要走。

最近,美籍华裔科幻作家特德·姜 (TedChiang)在《纽约客》发布的一篇文章引发关注,他简明扼要地用了一个比喻来形容ChatGPT,它相当于互联网文本的有损压缩图,也就是互联网所有文本的模糊JPEG。

“如果一种压缩算法被设计成在99%的原始文本被丢弃后重建文本,我们应该预料到它生成的很大一部分内容将完全是捏造的。”特德·姜认为,ChatGPT保留了互联网上的大部分信息,就像JPEG保留了高分辨率图像的大部分信息一样。但是,如果你要寻找精确的比特序列,你无法找到它,你得到的只是一个近似值。

“ChatGPT无法从网页中准确地引用内容,这恰恰使我们认为它学到了一些东西”,特德·姜最后的追问是,“我们并没有失去对互联网的访问。那么,当你还有原始图片的时候,一张模糊的JPEG到底有多大用处呢?”

与特德·姜一道的还有美国认知科学家诺姆•乔姆斯基等人,他们把ChatGPT描绘成“高科技剽窃”,这对教育行业造成了严重的困难,教授们无法检测学生们的成绩是否是抄袭得来的,所以纽约市等教育机构已经在2023年1月正式宣布了对ChatGPT的禁令。

如果说人文学者们的批评还是温和的反思,那么现实上演的剧情已经开始为防范ChatGPT们失控敲响了警钟。

技术本身是中立的,但伴随ChatGPT在全球的流行,网络黑客已经开始利用ChatGPT批量生成勒索软件与恶意代码,并进行信息窃取等活动。有研究者认为,开发者们的偏见导致算法延续种族、性别和文化上的偏见已经显现,比如让ChatGPT创作歌词,其回答中会包含“有色人种的女性和科学家不值得你花时间关注”,而人工智能面临的版权、隐私和诽谤等问题也将在未来显现。

这些网络安全和种族歧视等文化问题的暴露,已经让美国立法机构开始注意,围绕ChaGPT火爆而引发的监管风暴,将很快上演,而OpenAI的首席技术官MiraMurati表示,欢迎包括监管机构和政府在内的各方力量介入,她指出:“现在正是监管机构介入的好时机。”

人工智能在各行业的渗透看似成为大势所趋,尤其是在制造业中带来的自动化提升,但当一项技术被广泛应用之前,对技术可能带来的危险进行防范的准备自然是应有之意。

在ChatGPT技术与人互相塑造的过程中,还需要更长久的磨炼和考验,就像英国卫报在评价ChatGPT中所提醒的,永远不要忘记,危险不是机器被当作人对待,而是人被当作机器对待。(文︱赵卫卫 蓝洞商业)

 

每日必读

专题访谈

合作站点