据澎湃新闻,当地时间3月25日, CEO山姆·奥特曼谈AI竞争战,表示未来会出现多种AGI,而不需要打败每位对手,“我们没有无限逐利的动力”。
他还称:“从开始,AI出现了推理能力。但没人能解读这种能力出现的原因。”“AI确实可能杀死人类。”
迭代升级的脚步加快,很多人失业的恐惧也越来越重。高盛分析师布里格斯和库达尼在3月27日发布的研究报告中就直面了这一问题。
据红星新闻3月28日报道,高盛这份报告称,全球预计将有3亿个工作岗位最终被AI取代。不过在很多人丢掉饭碗的同时,AI在未来能极大提高生产力也是不争的事实。报告预计在下一个十年间,全球GDP每年将达到7%的超高增长率。
一:
微软用操控机器人,
工程师连代码都不用写
Open AI CEO:AI或杀死人类
公司已进军人形机器人
机器人将成为GPT的又一个应用场景,微软已经开始拿操控机器人了。
在的帮助下,工程师甚至不用手写代码——直接用人话描述想做什么,AI就能自动翻译成机器语言。
比如,一位操作者跟AI说:“我渴了,请帮我找个喝的。”AI并不会直愣愣地就去找水,而是会很机灵地反问:“请问你想喝哪种?这里有好几种饮料,比如椰子水、可乐等等。”操作者并未直接告诉AI选哪个,而是说:“我刚从健身房回来,请帮我找个健康点儿的饮料。”然后更神奇的操作就开始了:AI先是猜测他想喝椰子水,然后自己噼里啪啦写出一段代码(甚至还有注释),写完就自己指挥无人机去找椰子水。
前不久,据澎湃新闻, CEO山姆·奥特曼称,并不否认过分强大的AGI“可能杀死人类”这一观点。必须承认,(AI杀死人类)有一定可能性。很多关于AI安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法。
值得注意的是,据财联社报道,近日,挪威机器人公司1X 宣布完成A2轮融资,共筹集到2350万美元。旗下创业基金领投此轮融资,Tiger 以及一群挪威投资者也参与其中。
获得融资后,该公司创始人进一步表示,“1X 很高兴能得到 的领投,因为我们的使命是一致的:将新兴技术有意识地融入人们的日常生活。在我们投资者的支持下,我们将继续在机器人领域取得重大进展,并增强全球劳动力市场。”
值得注意的是,人形机器人也是马斯克十分关注的方向。去年9月30日举办的特斯拉AI日上,马斯克展示了外界引颈期盼的人形机器人,马斯克曾表示,机器人业务将比汽车更具价值。
彼时,马斯克在发布会上表示,目前的人形机器人没有“大脑”,没有能在现实世界中导航的智能,而且非常昂贵且产量低。如今,与人形机器人的牵手则让人期待。
人形机器人如果嵌入GPT,或许将是一场革命。以下,Enjoy:
当我还在跟吹牛尬聊时,有人已经在拿它操控机器人了。
不是别人,正是的金主爸爸、不久前刚拿“重新发明搜索引擎”的微软。
到目前为止,开发者调教机器人不仅技术门槛高,还道阻且长:
工程师需要在工作流程回路中,不断手写新代码和规范来纠正机器人行为;另外,操控不同的机器人可能需要不同的编程语言和环境。
而在的帮助下,工程师甚至不用手写代码——直接用人话描述想做什么,AI就能自动翻译成机器语言。
这意味着,一方面专业人士与机器人的交互效率起飞;另一方面,技术门槛也降低一大截,外行人甚至也能参与调试,创造出更多使用方法。
举个简单的例子:让无人机自动检查货架。
首先,操作者只需用自然语言给提出要求;然后,AI就能自动翻译成代码,并指挥无人机行动。(还可以规定无人机的飞行路径。)
难怪特斯拉前AI主管 会调侃:
最新的热门编程语言是英语。
1一个AI指挥多种机器人
实际上,会玩儿的花样可多了。
比如,一位操作者跟AI说:“我渴了,请帮我找个喝的。”
此时AI并不会直愣愣地就去找水了,而是会很机灵地反问:
请问你想喝哪种?这里有好几种饮料,比如椰子水、可乐等等。
当然操作者也不是吃素的,他并未直接告诉AI选哪个,而是说:“我刚从健身房回来,请帮我找个健康点儿的饮料。”
然后更神奇的操作就开始了:
AI先是猜测他想喝椰子水,然后自己噼里啪啦写出一段代码(甚至还有注释):
写完就自己指挥无人机去找椰子水:
除了无人机,还能轻松操控别的小机器人,包括摄像头、机械臂等等。
比如让摄像头在房间里找出能加热午饭的东西。
还有指挥机械臂拼出一个微软的Logo。(悄悄夹带私货)
看到这些,有网友脑洞大开,有人发问:
他们是不是正在建立无所不能的天网?
还有人甚至调侃称,AI可能连发射核弹的指令都会写:
不过话说回来,其实离网友说的这些还差得远,毕竟现在还是需要人类参与的。
怎么实现的?
从前文可以看出,这只灵活的AI不仅与人交流畅通无阻,而且和机器也能快速沟通。
这主要得益于微软团队专门开发的一系列API和高级函数库。
他们没有让背后的语言大模型(LLM),生成某固定种类的代码;因为机器人是个多元化领域,这样可能会在不同场景下涉及大量微调。
而在新颖的操作框架下,不同机器人,都有自己对应的特定函数库。
——一个AI,就能适应不同的对象、不同的任务。
一方面,这些函数库,能够连接到机器人控制系统中管理底层硬件,以及执行基本运动的代码和功能模块。
另一方面,为了让也能遵循函数库的规则,预定义函数命名就很关键。清晰的函数名,能让各API之间建立良好的功能连接,最终生成高质量的回答。
其中一项要求,就是所有API名称必须描述整体功能行为。例如,() 函数可以在内部链接到函数或计算机视觉模型。
设计好库和API后,微软给编写了一个文本提示(),描述目标任务,并明确说明函数库中哪些函数可用;另外,这还能规定生成代码用哪种编程语言。
值得一提的是,AI生成内容效果,和人为提示的质量呈正相关。为此,微软还开发了一个协作开源平台,任何人都能在此分享不同类机器人的策略。
到此,幕后部署基本完成,然后用户就能通过“说人话”间接操控机器人了。
如果想要检查AI生成的代码是否有Bug,随时都能在聊天框直接检查,或通过模拟器测试,人类可以用自然语言指导AI进行修正。
另外,还能到等到用户对解决方案满意为止,再在将生成代码部署到机器人上。
已在机器人上成功实现应用,那么未来会有多少工作会被AI替代呢?
二:
不要工资的AI影响有多大?
高盛:全球将有三亿人失业
据红星新闻,迭代升级的脚步加快,很多人失业的恐惧也越来越重。高盛分析师布里格斯和库达尼在3月27日发布的研究报告中就直面了这一问题。
报告称:“最近出现的生成式人工智能将降低劳动力成本和提高生产率。尽管AI的潜力存在很大的不确定性,但它可以生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步。AI不仅节省劳动力成本,还能创造新的就业机会以及提高在岗工人的生产率。AI的革命性就像早期通用技术(如发电机和个人计算机)一样能为社会带来繁荣。”
等生成式人工智能系统的最新突破,料将给全球劳动力市场带来重大颠覆,全球预计将有3亿个工作岗位被生成式AI取代,律师和行政人员将是最有可能被裁员的岗位。
高盛研究发现,目前欧美约有三分之二的工作岗位都在某种程度上受到AI自动化趋势的影响,而多达四分之一的当前岗位有可能最终被完全取代。该研究计算出美国63%的工作暴露在“AI影响范围”中,其中7%的工作有一半以上的流程可以由AI自动化完成,这使他们很容易马上被人工智能取代。在欧洲,情况也差不多。
据21财经,作为一种具备生产创造能力的智能形态,以为代表的AI近年来展现出令人瞩目的文字、图像、声音的生成或辅助生成能力,也不断刷新着人们对于AI最终取代绝大部分人类工作的担忧。
更为关键的是,当前的AIGC(人工智能生成内容)无需工资,亦不存在失业的概念,作为提供生产力的经济单位,其与宏观经济间的逻辑关系较人类发生了根本性改变,而这或许将给经济环境带来难以估量的影响。
三:
马斯克“吐槽”比尔盖茨:
他对人工智能理解有限
据红星新闻报道,当地时间周一(3月27日),推特首席执行官、创始人之一的马斯克在社交平台推特上“吐槽”了微软联合创始人比尔盖茨,称其对人工智能的理解有限。据悉,一名推特用户发文称“像比尔盖茨这样的人物如此看好人工智能,这是一件大事”。马斯克则在下方回应称,“我还记得早期与比尔盖茨的会面。他对人工智能的理解有限,现在也是。”
实际上作为微软联合创始人,比尔盖茨一直在思考关于人工智能的问题。当地时间3月21日,比尔盖茨发表了一篇名为《人工智能时代已经开始》的文章,在这篇长达七页的文章中,比尔盖茨概述了自己对人工智能时代的看法。文章称,在他的一生中,一共发生过两次令人印象深刻的革命性技术展示—一次是1980年,他第一次看到可以被称作包括系统在内的操作系统先驱的现代图形用户界面;第二次发生在去年(2022年),他看到了GPT人工智能模型。比尔盖茨称,人工智能的发展就像“创造出电脑、互联网和移动电话一样”重要。
比尔盖茨从健康医疗、教育等方面表达了自己对人工智能未来的期待。其表示,人工智能能改善医疗领域,帮助医护人员处理文书内容。对较落后国家而言,人工智能能帮助其提高看病效率。而对生物医学研究而言,人工智能还能加快研究人员在医学领域的突破。
作为创始人之一的马斯克,在2018年离开后,便一直对其持批评态度,尤其是针对其与微软的关系。就在马斯克退出后,2019年微软对进行了投资,马斯克曾称其为“由微软有效控制的公司”。
据澎湃新闻,3月16日,马斯克在推特上写道:“我仍然很困惑,一个我捐赠了1亿美元的非营利组织是如何变成一个市值300亿美元的营利性组织的。如果这是合法的,为什么不是每个人都这么做呢?”
对于马斯克的批评,作为现任CEO,奥特曼并未直接回应此事,而是调侃了一下马斯克在航天领域也经常被“老前辈”们批评的事情。
最后,如果是你,会想用操控机器人做些什么呢?
来源:每日经济新闻综合自红星新闻、澎湃新闻、财联社、21财经
论文地址:
参考链接:
[1]
[2]
[3]#-