网络安全专家发出警告,生成式人工智能工具如ChatGPT的崛起,正在助长网络犯罪分子制造更具欺骗性的复杂骗局。
在ChatGPT发布一周年之际,许多行业专家指出,这项技术正被网络上的不法分子所利用。
他们警告称,生成式人工智能工具的出现使得犯罪分子更容易制造出令人信服的骗局,尽管人工智能也被用于增强网络防御,帮助识别不断变化的威胁。
网络安全公司KnowBe4的安全意识倡导者詹姆斯·麦克奎根(James McQuiggan)表示,公众已经感受到生成式人工智能及其背后的大型语言模型(llm)的影响。
“ChatGPT彻底改变了威胁环境、开源调查和整体网络安全,”他对巴勒斯坦新闻社(PA)表示。
随着生成式人工智能降低了创建可信个人资料图片、完美文本甚至恶意软件的技术门槛,人工智能和像ChatGPT这样的法学硕士被越来越多地用于大规模生成更具欺骗性的网络钓鱼信息。
“网络犯罪分子利用法学硕士生成语法正确、无拼写错误、写作流畅的文件,以提升他们的攻击能力,并规避安全意识课程中教授的主要危险信号之一——语法和拼写错误通常表明存在社会工程电子邮件或网络钓鱼攻击。”
“毫不奇怪,各类网络钓鱼攻击变得愈加复杂,数量也在不断增加,给企业和消费者带来了挑战。”
“随着生成式人工智能降低了创建可信个人资料图片、完美文本甚至恶意软件的技术门槛,人工智能和ChatGPT等法学硕士被越来越多地用于大规模生成更具说服力的网络钓鱼信息。”
预计下一代生成式人工智能模型将在2024年问世,专家预测它们将比当前模型更为强大。
网络安全公司Outpost24的威胁情报运营经理博尔哈·罗德里格斯(Borja Rodriguez)展望了不法分子未来对生成式人工智能的潜在利用,他表示,黑客可能会开发人工智能工具来编写恶意代码。
他说:“目前,像GitHub的Copilot这样的工具可以帮助开发者自动生成代码。”
“不久的将来,可能会有人创建类似的工具,专门用于生成恶意代码、脚本、后门等,帮助技术水平较低的脚本小子(新手黑客)实现他们过去无法做到的事情。”
ChatGPT和巴德等法学硕士已经改变了市场格局。
“这些工具将帮助地下组织在缺乏专业知识的情况下执行复杂攻击,降低对执行者技能的要求。”
专家们指出,生成式人工智能的快速发展,以及未来几年该技术潜力的未知性,给其带来了不确定性。
许多政府和全球领导人已开始讨论如何监管人工智能,但如果不深入了解技术的潜力,成功的监管将难以实现。
Cato Networks的安全策略高级主管Etay Maor表示,信任问题仍然是法学硕士的核心,法学硕士是在大量文本数据上训练的,且其编程方式也至关重要。
他说:“随着人们对法学硕士的热情逐渐转向更为平衡的看法,我们必须承认法学硕士的优势与局限性。”
“用户必须核实来自可靠来源的关键信息,并意识到,尽管法学硕士功能强大,但也难免出错。”
“ChatGPT和巴德等法学硕士已经重塑了市场格局。”
“然而,随着行业努力了解这些工具的信息来源及其是否值得信赖,不确定性依然存在。”
本文来自作者[雪珍]投稿,不代表浩霎号立场,如若转载,请注明出处:https://www.haoshacaihui.com/cshi/202507-636.html
评论列表(4条)
我是浩霎号的签约作者“雪珍”!
希望本篇文章《人工智能的崛起助力犯罪分子策划更高级的网络攻击》能对你有所帮助!
本站[浩霎号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 网络安全专家发出警告,生成式人工智能工具如ChatGPT的崛起,正在助长网络犯罪分子制造更具欺骗性的复杂骗局。 在ChatGPT发布一周...