logo

李彦宏谈AI时代应用陷阱与OpenAI安全事件

作者:很菜不狗2024.12.03 12:01浏览量:13

简介:李彦宏在多次演讲中强调AI时代应避免掉入超级应用陷阱,倡导开发“超级能干”的应用。同时,OpenAI曾遭遇黑客攻击窃取核心技术,但公司选择守口如瓶。

在人工智能(AI)技术日新月异的今天,行业领袖们的观点与动向无疑为这一领域的发展指明了方向。百度创始人李彦宏,作为AI领域的深耕者,其在多次重要场合的发言,尤其是关于AI时代应用开发的见解,引起了广泛的关注与讨论。

李彦宏:AI时代的应用观

在2024年世界人工智能大会(WAIC)及百度世界2024大会上,李彦宏提出了一个颇受关注的观点:在AI时代,“超级能干”的应用比只看日活跃用户(DAU)的超级应用更重要。他所强调的“超级能干”应用,是指能对具体产业场景产生价值的应用。例如,在快递行业,有快递公司利用大模型能力处理订单,实现了寄件流程的极大简化,寄件时间从3分多钟缩短到19秒,且90%以上的售后问题也由大模型来解决,效率提升显著。百度内部也有30%的代码由AI生成,代码采用率超过了44%。这些实例充分展示了AI技术在具体产业场景中的应用价值。

李彦宏认为,AI时代的公司应该避免掉入超级应用陷阱,不要觉得一定要出现一个10亿DAU的应用才叫成功,这是移动时代的思维逻辑,AI时代不是这样的。他强调,真正的价值在于如何将AI技术应用于实际场景,解决实际问题。因此,他呼吁大家“不要卷模型,要卷应用”,即不要过分追求大模型的研发,而要将更多精力投入到应用的开发与优化上。

OpenAI的安全挑战

与此同时,AI领域的安全问题也日益凸显。据《纽约时报》报道,2023年4月,一名黑客获得了ChatGPT制造商OpenAI的内部消息系统的访问权限,并窃取了该公司人工智能技术设计的细节。然而,OpenAI高管决定不公开分享这一消息,因为没有关于客户或合作伙伴的信息被盗,且他们认为这一事件对国家安全不构成威胁。这一做法虽然避免了不必要的恐慌,但也引发了关于AI公司安全防护措施的广泛质疑。

事实上,这并非OpenAI首次遭遇黑客攻击。在2023年11月,ChatGPT和API就曾突发严重停机,大量网友称无法使用。事后,OpenAI回应称受到DDoS(分布式拒绝服务)攻击的迹象。这些安全事件再次提醒我们,AI公司在追求技术创新的同时,必须高度重视安全防护措施的建设。

AI时代的机遇与挑战

李彦宏的见解和OpenAI的安全事件,共同揭示了AI时代面临的机遇与挑战。一方面,AI技术为各行各业带来了前所未有的变革机遇,通过开发“超级能干”的应用,可以大幅提升生产效率和服务质量。另一方面,随着AI技术的广泛应用,安全问题也日益成为制约其发展的关键因素之一。因此,如何在保障安全的前提下,充分发挥AI技术的潜力,成为摆在所有AI从业者面前的一道难题。

为了应对这一挑战,李彦宏提出了“AI原生应用”的概念。他认为,在AI原生时代,智能体将成为内容、服务和信息的新载体。这些智能体可以像人一样理解、思考和交互,为用户提供更加个性化、智能化的服务。同时,他还发布了检索增强的文生图技术(iRAG)和无代码工具“秒哒”两大赋能应用的AI技术,进一步降低了AI应用的开发门槛。

结语

李彦宏的见解和OpenAI的安全事件为我们提供了宝贵的启示。在AI时代,我们应该避免掉入超级应用陷阱,将更多精力投入到“超级能干”的应用开发上。同时,我们也必须高度重视AI技术的安全问题,加强安全防护措施的建设。只有这样,我们才能充分抓住AI时代带来的机遇,推动各行各业的持续发展和进步。

在这个过程中,百度等科技巨头无疑将扮演重要角色。以百度为例,其文心大模型已经取得了显著的成绩,日均调用量超过15亿次。未来,随着更多像百度这样的企业加入到AI应用的开发行列中来,我们有理由相信,AI时代将为我们带来更加美好的未来。而在这个过程中,千帆大模型开发与服务平台等工具也将发挥重要作用,助力开发者更加高效地开发出优秀的AI应用。

相关文章推荐

发表评论