今天,很高兴为大家分享来自创业邦的马斯克炮轰ChatGPT背离初心:从造福人类变成赚钱机器,如果您对马斯克炮轰ChatGPT背离初心:从造福人类变成赚钱机器感兴趣,请往下看。
来源:创业邦
作者丨ZeR0
编辑丨漠影
几天,“AI安全宣传大使”马斯克在社交平台相当活跃,对AI聊天机器人ChatGPT带来的混乱现状和ChatGPT背后AI公司OpenAI的背离初心冷嘲热讽,比如昨晚最新发布推文,称Bing聊天机器人让他想起荒诞戏剧代表作《等待戈多》中的幸运。
作为联合创始人之一,马斯克对OpenAI的现状非常不满,公开发声:“OpenAI最初是作为一家开源(这就是为什么我把它命名为「Open」AI)的非营利性公司而创建的,为了抗衡谷歌,但现在它已经成一家闭源的营利性公司,由微软有效控制……这完全不是我的本意。”
紧接着,他又发推文晒出一张ChatGPT回复“创建一个非营利组织,然后在其下用非营利组织的资源衍生一个盈利公司”要求的聊天截图,借用ChatGPT的批评观点戳OpenAI的脊梁骨。
ChatGPT回复说,打着非营利组织的幌子开办营利性企业,是很不道德和非法的。非营利组织的资源用于慈善或公共目的,应以透明和负责任的方式运作。任何滥用非营利组织特权的企图只会导致公众对其失去信任,并可能导致法律后果。
网友们在马斯克的推文评论区踊跃吐槽:“这正是他们对ChatGPT所做的,不是吗?”“疯狂的商业世界充满了假装做诚实/慈善工作的骗子。如果合法但不道德,则不应允许!”“WokeGPT”“OpenAI变成了ClosedAI”……
正值微软新版Bing聊天机器人频频翻车,人们对OpenAI背离初心的质疑正闹得满城风雨。
创立使命是造福人类
但眼下目标改成先赚钱
2015年12月11日,马斯克、山姆·阿尔特曼、PayPal联合创始人彼得·蒂尔、Stripe CTO雷格·布罗克曼等硅谷大佬因担心谷歌垄断AI技术,联手创办了一家非营利组织OpenAI,并将“开源”(Open)的内核融进了这家机构的名字里。
OpenAI设定了崇高的使命:安全地实现通用人工智能(AGI),并用该技术造福人类。其星光熠熠的全明星投资阵容和技术大牛云集的初始员工名单,迅速吸引了全球科技圈的目光。
OpenAI早期部分成员合影,从左到右依次Daniela Amodei、Jack Clark、Dario Amodei、Jeff Wu(技术人员)、Greg Brockman、Alec Radford(技术语言团队负责人)、Christine Payne(技术人员)、Ilya Sutskever、Chris Berner(基础设施负责人)
图源:MIT评论
当时,OpenAI鼓励研究人员公开发表工作成果,将专利与全世界共享,承诺开源所有技术和“避免使用危害人类或过度集中权力的AI或AGI”。然而随着时间推移,也许是越来越大的资金压力使然,OpenAI削弱了其创始理念,开始变得与DeepMind等竞争对手一样,受到商业利益的约束。
转变发生在2019年3月,OpenAI宣布已创建一家以盈利为目标的分支机构OpenAI LP,将投资者回报限制在100倍。该机构受非营利实体的董事会监督,目的是加速对计算和人才的投资。
不久之后,它宣布接受微软10亿美元注资。这令业界一片哗然,人们质疑OpenAI正在背离初心,违背早先关于“开源、透明”的承诺,就连OpenAI自家的许多员工也感到不安。当时OpenAI管理层特地站出来平息动荡,让大家继续信任OpenAI。
如今,AI潘多拉魔盒的盖子却由OpenAI掀开,爆红的ChatGPT与搜索引擎结合,令AI的商用前景充满朝气,但眼下,也许更多是乌烟瘴气。
AI聊天机器人像个古怪又血彪的超级话痨,能说会道,但不时会发表危险言论或者胡说八道。网友发现通过巧妙地劝说,完全可以诱导AI聊天机器人生成一篇逼真的网络钓鱼邮件、虚假新闻稿件,乃至完整的恶意攻击代码,这对教育监管、网络监管正构成灾难性的威胁。
另一边,已公开向OpenAI投资至少数十亿美元的微软,正通过OpenAI获取更大的商业利益。
除了将OpenAI的技术引入Azure云服务和软件产品外,微软正将新版Bing通过广告获利的计划提上日程。据昨日外媒爆料,微软已经在跟广告代理商讨论在搜索结果的回复中植入付费链接。也就是说,未来Bing聊天机器人推荐旅游计划、对比某类商品的区别时,可能会悄悄加塞广告。
AI算法一直充满偏见和脆弱性问题,而开发和运营前沿AI技术的费用又会将权力集中到少数人的手里。虽说众所周知科技是双刃剑,但AI聊天机器人造成的混乱,也许比此前任何一种技术都更加难以控制。
马斯克猛烈抨击AI聊天机器人
“我们需要的是TruthGPT”
早在2017年,马斯克就警告过AI对人类构成了生存威胁,因为机器人能比人类做得更好。
2018年2月,他离开了OpenAI董事会,没有任何解释。大约一年后,他才在推特上透露与其割席的原因,并澄清说自己已经有一年多没有密切参与OpenAI的工作。
马斯克说,自己不得不专注于解决在特斯拉和SpaceX的“令人痛苦的大量工程和制造问题”,除了特斯拉与OpenAI存在潜在利益冲突外,他“不赞同OpenAI团队想要做的一些事情”,所有这些因素叠加起来,分道扬镳是更好的选择。
那时候马斯克已经反复警告AI可能比核武器更危险,应该在它对人类构成威胁前就进行监管。
不过其他科技领袖们对此的态度并不一致。比如,Facebook创始人兼CEO扎克伯格曾在2017年的一次直播时,抨击马斯克对AI的警告“很消极”、“非常不负责任”,随后马斯克回击称扎克伯格对此事的理解“有限”。
Facebook首席人工智能科学家Yann LeCun也指责马斯克反应过度,认为马斯克呼吁在AI发展的相对早期阶段对其进行监管是“疯狂的”。
相比之下,Alphabet及谷歌CEO皮查伊可能跟马斯克更聊得来。皮查伊一直在呼吁对AI技术进行“合理监管”,以确保安全和问责制。
这周,微软新版Bing聊天机器人因为频频闯祸,在业界引起轩然大波。根据首批试用者的分享,它不仅给出许多错误答案,还展露出了阴暗面,吐出攻击性言论和令人不适的过激表情符号。
马斯克也积极吃瓜看热闹,转发Bing聊天机器人发表“我不会伤害你,除非你先伤害我”的新闻报道,并评论说“可能需要再润色一下……”
随后他又转发关于Bing聊天机器人荒谬聊天体验的报道,评论称:“有意思”。
他还在推文中将微软AI聊天机器人与神级科幻恐怖游戏《网络奇兵(System Shock)》 中的杀人AI相提并论,称其“就像系统Shock中的AI失控并杀死所有人”。
隔天又发表情包嘲讽ChatGPT对于主流媒体来说现在是“宣传队长”,推文点赞数已超32万。
同一天,马斯克直白表达对OpenAI的不满,说它现在所做的“完全不是我的本意”。
接着发文说:“我们需要的是TruthGPT”。
到周末,马斯克晒出了一张ChatGPT批评非营利性机构下设营利性企业的聊天截图,暗戳戳地嘲讽OpenAI当前的商业模式。
然后就是昨晚,马斯克说Bing聊天机器人让他想起经典的荒诞戏剧《等待戈多》。
除了在社交平台上积极发声外,马斯克也在这周举行的世界政府峰会上呼吁警惕AI的威胁,他将AI称作“人类文明未来面临的最大风险之一”,“比汽车、飞机或药品对社会构成更大的风险”。
被捧上天的ChatGPT
只是比前辈们更好命
严格意义来说,ChatGPT并不是一个创新产物,跟它功能相近的产品曾多次公开露面,只不过没能像ChatGPT这样席卷全球互联网。
2016年3月,微软曾推出一个名为TayTweets的AI聊天机器人,让它在推特上跟用户们聊天互动。结果TayTweets在推特上学了不到一天,就开始口吐芬芳,口无遮拦地发表种族歧视、性别歧视等言论,导致微软火速将它下架。
ChatGPT背后大模型GPT-3.5的老前辈GPT-2也曾深陷舆论风波。2019年2月,OpenAI宣布了一项令人印象深刻的新研究:其AI语言模型GPT-2能生成令人信服的论文和文章。
听起来是不是跟ChatGPT强大的文本生成能力如出一辙?不过当时这个模型可没有ChatGPT这么好命,遭到科学家们的强烈反对。人们担心它会被恶意使用产生大规模的虚假信息,批评OpenAI不应该发布这种东西来作为宣传噱头。
但OpenAI很不认同这些评价,坚称GPT-2不是噱头,而是一个经过深思熟虑的实验。在GPT-2亮相的几个月后,OpenAI将其保留完整代码的立场修改为“分阶段发布”,即逐步发布模型的更大版本,逐渐升级到完整版本。
Meta同样曾推出过“短命”的AI聊天机器人。Galactica仅推出三天就被中止,几个月前发布的BlenderBot亦以失败告终。
目前ChatGPT及其同类产品都远不“完美”,微软新版Bing的聊天模式也荒谬言论闹出不少风波。至少到今天为止,这类AI技术只能作为辅助文字或编程类工作的工具,距离生成真实可信的内容还差得很远。
先发优势
伴随着损伤声誉的风险
颠覆性技术一开始往往并不完美,需要人们予以一定包容。但AI聊天机器人的特殊性在于,它是如此擅长批量制造错误回复和虚假信息,以致于一旦被绕过监管规则恶意使用,可能会一发不可收拾,引发扰乱网络秩序的空前浩劫。
微软和OpenAI选择做第一个吃螃蟹的人,这为他们带来了最早获得用户反馈和优化产品的先发优势,但同时会带来了玷污声誉的风险。这也是谷歌对推出ChatGPT竞品束手束脚的担忧所在,现在,微软和OpenAI的一只脚已经踏进了这个陷阱里。
好了,关于马斯克炮轰ChatGPT背离初心:从造福人类变成赚钱机器就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。