【格小密开小灶】当AI开始“自主思考”,谁来证明“它是谁”?
导语:
今天我们继续前一个话题:当这类可以实现“理解指令-自主规划-执行任务”的新型AI工具出现并得到应用时,我们怎么知道“它是谁”?它有权做这些事吗?
01
从“聊天机器人”到“数字员工”:AI正在改变
还记得几年前的AI吗?那时候它们只能回答问题,像一本会说话的百科全书。你问它“明天天气怎么样”,它告诉你答案,对话就结束了。但是,现在的AI已经完全不同。它们可以:
阅读你的文档,理解公司内部的业务规范
主动搜索网络,获取最新信息来辅助决策
调用软件工具,直接在你的电脑上执行操作
多步骤规划,把复杂任务拆解成可执行的步骤
简单说,AI从“动嘴”进化到了“动手”——它不再只是给你建议,而是可以直接帮你“把事情办了”。
这种新型AI,业内称之为“AI智能体”(AI Agent)。
02
一个被忽视的核心问题:身份认证
当AI开始“动手做事”,一个关键问题浮出水面:
“它”是谁?“它”有权访问我的文件吗?“它”的操作能追溯到谁?我们不妨想象一下这些场景:
场景潜在风险
一个AI助手访问你的邮箱发送邮件
如果AI的身份被冒用,攻击者可以冒充你发送钓鱼邮件
AI自动登录你的云盘整理文件
如果权限不受控,AI可能访问到不该看的敏感文件
多个AI协同完成一个项目
如果身份无法验证,恶意AI可能混入协作流程
AI代表你向其他系统发起请求
如果无法追溯责任,出了问题找不到负责人
传统的账号密码体系,是为“人”设计的。但当“执行者”变成AI时,这套体系开始显得力不从心。
03
什么是“智能体身份认证”
智能体身份认证,简单说就是给AI发一张“数字身份证”。但这张“身份证”要比人类的复杂得多,因为它需要回答四
个问题:
唯一性:这个AI是谁?
每个AI智能体都需要一个全球唯一的身份标识,就像人的身份证号一样。无论它在哪个平台、访问哪个系统,都能被准确识别。
真实性:这个AI是真的吗?
需要验证这个AI的身份没有被伪造、没有被盗用。就像验证身份证是真的一样。
可控性:这个AI能做什么?
明确AI的权限边界——它能访问哪些数据?能执行哪些操作?不能做什么?
可追溯性:出了问题找谁?
完整记录AI的所有操作,一旦发生安全性问题,可以追溯到责任主体。
04
为什么这件事很重要?
你可能觉得,“这只是技术人员的杞人忧天吧?”但事实并非如此:
数据安全风险
AI智能体需要访问大量数据才能“做事”——你的邮件、文档、聊天记录、业务数据……如果AI的身份
无法验证,这些数据就像“敞开的大门”。
权限滥用风险
没有身份认证的AI,就像一个没有门禁系统的办公楼。任何人都可
以“借用”AI的身份,访问不该访问的资源。
责任追溯困难
当AI“做错事”时——比如误删文件、发送错误信息、泄露敏感数据——如果没有完整的身份记录,我们甚至无法确定“这是谁干的”。
合规监管要求
国内外监管政策已经开始关注这个问题。欧盟《人工智能法案》、美国《人工智能安全行政令》、中国的《人工智能安全治理行动方案》都明确要求:AI系统必须具备可追溯的身份标识与严格的权限管理。
05
探索与实践
基于密码学的身份认证
格小密认为,将传统的数字证书技术与AI场景结合,可为智能体颁发“数字身份证”——每个AI都有
唯一的证书,证明“它是谁”。
动态权限管理
格小密认为,不同于传统的“固定权限”,动态权限管理可支持根据AI的任务场景、风险等级动态调整权限,实现“最小权限原则”。
行为审计追溯
格小密认为,通过区块链技术,完整记录AI的操作日志,可确保“谁做了什么”一目了然,满足合规审计要求。抗量子安全
格小密认为,考虑到量子计算对未来密码学的威胁,还应该布局抗
量子密码技术,确保智能体身份
认证在未来依然安全。
格小密:
AI智能体的时代已经到来
它们会成为我们得力的助手,帮我们处理繁琐的工作、提高工作效率。但在享受便利的同时,我们不能忽视安全这个“底线问题”。身份认证是数字世界的“信任基石”。只有当每个AI都有明确的身份、清晰的权限、可追溯的行为,我们才能真正放心地让AI“替我们做事”。正如格尔软件(603232)一直倡导的:“自主可控、安全可信”——这不仅是技术理念,更是数字时代的生存法则。
*本文基于公开资料和行业研究撰写,仅供学术交流,不构成投资建议。*
所有文章未经授权禁止转载、摘编、复制或建立镜像,违规转载法律必究。
举报邮箱:1002263188@qq.com