C114通信网  |  通信人家园

人工智能
2023/8/14 10:49

生成式人工智能将如何影响网络安全领域的技能差距

C114通信网  

网络安全领域的工作很热门,而且需要合格的员工。根据美国国家标准与技术研究所汇编的数据,2022年全球网络安全工作者短缺340万。仅在美国就有超过663000个网络安全职位空缺。

ChatGPT等生成性人工智能工具的兴起引发了新的问题,即这些工具是否有助于缩小或加剧就业差距。因此,许多专家将其视为一把双刃剑。

一方面,攻击者可以使用生成人工智能“大大降低网络安全中的作恶成本”,IEEE高级会员林道庄说。

另一方面,生成型人工智能可能能够加速软件代码和新工具的开发,以挫败网络攻击。

“这些大型语言模型是一个根本的范式转变,”IEEE会员Yale Fox近日在《数据中心知识》杂志上如此表示。“反击人工智能驱动的恶意攻击的唯一方法是在防御中使用人工智能。数据中心的安全经理需要提高现有网络安全资源的技能,并寻找专门从事人工智能的新人群。”

目前,生成性人工智能对寻求招聘的网络安全高管来说是福是祸的问题基本上是无法回答的。这并没有阻止关于它可能如何改变网络安全专业人员工作的更广泛讨论。

以下是专家们对生成性人工智能可能塑造网络安全工作性质的看法:

1. 软件开发人员可能需要对人工智能生成的代码进行更多的验证和测试,更加强调质量控制技能。IEEE高级会员Amol Gulhane指出,质量控制人员需要获得与评估生成人工智能模型性能相关的知识和技能。

Gulhane说:“他们需要了解与这些模型相关的局限性和偏见,识别潜在的漏洞,并根据预定义的标准和安全要求测试生成的输出。”

2. 生成型人工智能可以减轻网络安全专业人员面临的文书工作和文件负担。尽管网络安全分析师的键盘技能以及他们细节能力在很大程度上得到了提升,但人们对该角色可能需要的大量文件却关注较少。

IEEE高级会员Kayne McGladrey说:“这份文件可以采取多种形式,包括在误报警报上进行标注到写下如何进行新型调查的文档。虽然这些文档具有巨大的组织价值,但它也是分析师执行的最不受欢迎和耗时的任务之一。通过使用人工智能自动化任务,如根据预定义格式汇总文本和生成报告,分析师可以显著节省时间。”

3. 它可以加速新产品的安全缺陷测试,内部安全专家试图以开发人员没有预料到的方式“破解”产品,这一过程被称为red teaming。

“作为组织软件开发生命周期的一部分,red teamers偶尔会被要求评估软件组件的安全性,”McGladrey说,“不幸的是,这带来了日程压力;red teamers需要的时间越长,软件发布到通用状态的时间就越长,因此并非所有组织都遵循这种模式。”

了解更多:道德黑客帮助企业和软件开发人员从不道德的人的角度看待问题。在产品向公众发布之前,这是一项提高产品安全性的重要技能。在Innovation at Work博客上可了解更多道德黑客如何打击网络犯罪的内容,https://innovationatwork.ieee.org/ethical-hacking-is-essential-to-fighting-cyber-crime/

给作者点赞
0 VS 0
写得不太好

版权说明:凡注明来源为“C114通信网”的文章皆属C114版权所有,除与C114签署内容授权协议的单位外,其他单位未经允许禁止转载、摘编,违者必究。如需使用,请联系021-54451141。其中编译类仅出于传递更多信息之目的,系C114对海外相关站点最新信息的翻译稿,仅供参考,不代表证实其描述或赞同其观点,投资者据此操作,风险自担;翻译质量问题请指正

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141