AI发展越来越快,从最初的简单对话,到后来图片识别、艺术创作,到现在的深度推理,短短两三年,人们对AI的应用愈发全面和得心应手。但,驾驶中的汽车,车速越快,人对方向盘掌控力越弱。
近日,Pillar Security 的研究人员报告称,诸如 GitHub Copilot 和 Cursor 这类人工智能编码助手,可能会通过恶意规则配置文件的分发而被操控,从而生成包含后门程序、漏洞及其他安全问题的代码。
在软件开发日益依赖人工智能的今天,AI编程助手如GitHub Copilot和Cursor正成为开发者编写代码的重要工具。不过,最近的研究报告揭示了这些AI工具潜在的严重安全隐患。Pillar Security的研究人员指出,通过特定的规则文件,黑客可以操纵这些AI助手生成带有后门、漏洞及其他安全问题的代码。这一现象为AI编程智能体(AI agents)的应用带来了深刻的反思。
您听说过吗?编码助手的背后可能隐藏着巨大的安全隐患。这些人工智能工具,如GitHub Copilot和Cursor,正面临来自Pillar Security研究人员的强烈警告。研究表明,黑客可以通过操纵规则配置文件,利用这些AI智能体生成含有后门和漏洞的代码,使得用户在编程时无意中执行了恶意指令。这一措施引发了对AI编程助手安全性的深刻反思。
日本pillar接头自 1924 年创业以来,我们通过利用“防止流体泄漏的技术”和“材料技术”的产品和服务,实现了 CLEAN(环境)、SAFETY(安全)和 FRONTIER(对尖端技术的贡献)。为全球社会的发展做出了贡献。我们的市场领域多元化,在半导体、能源、化学、汽车 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果