华人澳洲中文论坛

热图推荐

    别鼓动焦虑了,GPT-4还取代不了你

    [复制链接]

    2023-3-17 09:14:10 48 0

    原标题:别鼓动焦虑了,GPT-4还取代不了你  


    GPT更新,这回机能太强了。/unsplash  
    GPT-4连代码里的bug都能本人修,就不怕它自我进化,最初发生自主张识取代人类吗?谜底是:目前不会。但GPT-4要达到“完善”,可能也只是时间问题。  
    顺序员要被淘汰了,这可能不是危言耸听。  
    这个职业本来简直是“金饭碗”同样的存在,技术门坎高、考验发明力,支出也高。但ChatGPT的问世,改动了这类固有态势。  
    比来这两天,GPT还降级到了第四代——GPT-4。  
    要知道,上一代ChatGPT曾经拥有超强的语义了解才能。虽然这类才能仅限于文字处置,但也曾经有公司在使用ChatGPT相干技术,代替掉一些高级顺序员的任务了。  
    而GPT-4不光文字了解才能更高,还有超强的图片了解才能,就连一些互联网梗图都能读懂。  
    这还不是GPT-4的整个实力。在GPT开发者OpenAI公布的演示视频中,GPT-4能按照一张十分潦草的demo图,在10秒以内生成一个网站页面。  
    10秒,是人类无论如何都不成能达到的速度,但AI能够。并且才100多天,它就跃进到了这个程度。  
    下一代GPT又会有如许弱小的才能呢?这既让人期待和兴奋,又觉得有点后背发凉。  
    GPT-4,无所不克不及?  
    上一代GPT并非第一代,版本号实际上是“3.5”。但由于其文字了解才能对比强,尤为对话交流表示十分“顺滑”,所以才被称为“ChatGPT”。  
    比起得多犹如“人工智障”的AI助手,ChatGPT给出的回答更像人类,但也不是毫无破绽。有用户问过ChatGPT:“林黛玉三打白骨精是怎么回事?”  
    ChatGPT还真给胡诌出了一段故事,看起来有点像从网友二创作品中提炼出来的剧情。  
         


    林黛玉三打白骨精是怎么回事?/知乎答主@连诗璐  
    但拿一样的问题去问GPT-4,它会提示用户不要混合《红楼梦》和《西纪行》的剧情。  


    ChatGPT有点像喝醉了在说胡话,而GPT-4放弃了清醒。/知乎答主@连诗璐  
    假如你认为GPT-4的文字了解才能只停留在“语句”的程度,那你就错了。GPT-4还能够了解“代码言语”。  
    在GPT-4的产品视频中,OpenAI总裁间接把一段1万字的代码发给GPT-4,让它修bug。后果GPT-4只用了几秒钟就找到了bug,而且分点给出理解决方法。换做是顺序员去找,毫不可能有这个效力。  
    这次降级和更新之后,OpenAI还将GPT-4处置文字内容的下限拓展到了2.5万个字符,这是ChatGPT下限的8倍。这象征着,GPT-4能够处置更大的信息量。  


    GPT-4更加凸起的才能体当初图片了解方面。  
    在OpenAI公布的产品视频中,开发者给GPT-4看了一张“用VGA电脑接口给iPhone充电”的图片,并问GPT-4“笑点在哪里”,GPT-4在条分缕析之后得出了却论:  
    “这张图搞笑之处在于,它将一个很大而且过期的VGA接口插在一个很小而且古代的智能手机充电口上,这很荒诞。”  


    GPT-4是懂风趣的。  
    更首要的是,它还能把对图片和文字的了解结合起来,同步进行。  
    好比,给GPT-4一些统计图表进行剖析,GPT-4能高效地得出论断、发现问题,并迅速反馈给使用者。乃至间接把整篇论文截图上传给GPT-4,它都能在几秒以内概括出论文的中心内容来。  
    未来,大公司的财报、销售业务数据等外容,即使图表内容再繁杂、内容维度再多、数据量再大,只有不超过2.5万个字符的限度,GPT-4都能剖析得分明。  
    如斯看来,似乎GPT-4简直能够秒杀至关一部份人类了,顺序员、金融剖析师、数据剖析师、音乐创作人(GPT-4能够本人写歌)都要下岗。  
    最少,高级顺序员会被淘汰。/微博截图  
    GPT机能跃进,留给人类的时机未几了?  
    问题来了,GPT-4连代码里的bug都能本人修,就不怕它自我进化,最初发生自主张识取代人类吗?  
    谜底是:目前不会,由于GPT-4也不是白璧无瑕的。  
    虽然它是多模态模型,目前曾经能够处置文字和图片两种“模态”,这比ChatGPT只能处置文字的“单模态模型”提高了得多,但也仅限于此。  
    最少,目前它还剖析不了声响和视频。后续的版本必定会掩盖这些“模态”,以加强AI的了解才能。  
    事实上,对声响的了解会更为繁杂,好比一句话中的语气、进展都包孕着信息。此外还有非言语类声响,好比风声、撞击声,以及声响间隔、方位的鉴别,都是需求冲破的点。而视频图象会更繁杂,对这些技术的攻坚,必将要耗时更久。  
    固然,这也只是时间问题。  


    多模态,相似于感官融会。/pexels  
    目前来看,它还有一个显著的问题就是,容易发生“AI幻觉”,生成过错谜底,并泛起逻辑过错。  
    所谓“AI幻觉”,是指模型过于自信,生成的内容与提供的源内容有关或不忠实,有时会泛起听起来公道,但不正确或荒诞的谜底,好比上文中提及的“林黛玉三打白骨精”问答。  
    中国信通院云计算与大数据钻研所所长何宝宏曾在承受采访时指出,“ChatGPT的幻觉来自两个方面,一是训练数据自身,二是训练办法。AI是经过海量数据训练出来的,因此这一缺陷也与大数据的问题同样:数据很准确但错得离谱”。  
    假如过于依赖AI,那末由这类幻觉致使的不许确性,显然会影响一些业务的正常进行。这就象征着,人工必需对其反馈的剖析进行复核,这是AI取代不了的职责和须要性。  


    AI幻觉,大数据绕不开的bug。/pexels  
    好在GPT迭代至今,其才能都仅限于主动响应。也就是说,不管是ChatGPT仍是GPT-4,它们的信息读取才能都只是对人类发问的反馈,而不会被动去评判或者剖析。  
    这一点“主动”的属性很症结,一方面能让AI处于从属位置,只会主动解决人类提出的问题。这一点,该当成为AI行业不成跨越的红线,不然就会见临得多费事,好比AI的自我演进,AI的权利和福利问题,AI越过防火墙进行监听,乃至衍生出黑客行动……  
    另外一方面,这也对人类提出了更高的要求,好比发问才能。  
    很显然,GPT-4是按照指令进行剖析的,那就是说,只要在指令或发问明白、明晰的状况下,GPT-4能力给出针对性的谜底。不然,假如问得很浅,那失掉的反馈也只会是和百科同样的外表回答。  


    AI跃进,对人类的洞察才能提出了更高要求。/pexels  
    一个会让人警铃大作的动静是,著名金融办事公司摩根士丹利曾经在实际业务中使用了GPT。  
    摩根士丹利的任务人员所面对的微小内容库,涵盖了投资战略、市场钻研和评论以及剖析师见地等长达数十万页的内容。这些信息大多以PDF格局散布在外部网站上,需求阅读少量信息能力找到特定问题的谜底,检索起来费时费劲。  
    而GPT高效的信息处置才能,让这部份任务量失掉了无效疏解。  
    但这也象征着,这部份信息处置类的高级岗位将要被淘汰,留上去的人必定要具备更强的洞察力,而且能提出好的问题来疏导GPT。  
    所以,就目前来看,人类还不必为被AI取代而耽心,但绝对不克不及躺平粗心,而是要不停加强本人的程度,让AI取代不了本人。  
    作者 | 土卫六  
    编纂 | 晏 非  
    校对 | 赖晓妮  
    排版 | 韩博菲  
    封面图来源《亲爱的小孩》剧照  
    看更多优质内容,点击咭片??,星标咱们!?

    发表回复

    您需要登录后才可以回帖 登录 | 立即注册

    返回列表 本版积分规则

    :
    注册会员
    :
    论坛短信
    :
    未填写
    :
    未填写
    :
    未填写

    主题33

    帖子41

    积分193

    图文推荐