随 IoT、工业 4.0 时代到来,企业要面临的另一个重点议题就是「资安」,当企业大量运用 AI 与机器学习(ML),也必须思考要如何保护内部系统、网路以及各式的骇客攻击。其中,除了原有的 AI 模型,其实具备解释力的可解释人工智慧(Explainable AI,简称 XAI)才真正能协助企业预测与防范攻击的发生。

根据 Gartner 分析 ,过去企业运用的 AI 模型除了协助进行数据分析,事实上可能生成诸多带有偏见、偏误的结果,甚至使企业资安出现防护漏洞。究竟企业该如何解决,以及人类该如何相信 AI 技术,避免 AI 时代的资安问题?

XAI 成趋势,增强企业透明度

随着人工智慧发展越发达,系统也会变得越复杂,要理解全部决策原理基本是不可能的。然而,数据团队可以透过数据结果的解释方法,昇华到「机器推理」来协助进行判断。机器推理是更进阶的人工智慧领域,当机器学习已经实现广泛的能力时,需要进一步训练机器识别数据模式的能力,允许系统对事实进行推理。

同时,相较於未知的机器学习,科学家应该深入探讨 AI 模型的可解释性,进而了解人工智慧怎麽下判断。可解释人工智慧就是让专家能够理解人工智慧结果的方法和技术。

可解释人工智慧对企业风险管理的直接影响,包括让企业得以诠释机器学习产出的模型与结果、外界对於系统的攻击迹象以及具体掌握模型附带的测量机制等。可解释人工智慧所带来的结果,能让企业为解决资安问题所做的黑盒子,有效达到预防效果,成为「白盒子」。同时,XAI 还能让模型结果视觉化,增进企业基於模型预测所做的决策力。

其他的实际应用包含:医院中的资料感知系统,利用模型分析位置地点、工作人员易达性和患者数据(生命体徵、病史报告),合理解决患者病况警报,有效率动员工作人员并增进患者治疗效果。

企业与 AI 建立互信机制,防范未来资安问题

透过可解释性人工智慧,企业不仅能加速决策效率,更能够让企业资安防护网再升级。当企业犹豫於选择简单透明的模型,或是高效率不透明模型时,如果能掌握人工智慧新趋势,让机器学习的模型不再只是生硬的结果,而是可以防患於未然的模型,就能够再往前跃进一步。

如今,对各行各业而言,AI 都正改写运行规则。在增强信任技术时,若企业也同时能够降低数据偏误风险,并激发创新,让 AI 模型与开发者一同确保结果准确性,就能有效增强对未来资讯安全的信心。

有学者指出,「AI 让机器得以自我学习、做出自动化的决策,XAI 则是以一系列的机制产出人类可理解的结果。」当 AI 朝 XAI 前进,除了企业资安能大大升级,在更多工业 4.0 时代下的智慧城市、智慧医疗等应用,也将有显着进展。

好主管秘笈来了!
9 个 how-to 和 3 个 don’t do
让你的领导之路不再心累

>> 立即下载「台湾中高阶主管职场秘笈:向下管理」

(本文开放合作夥伴转载,资料来源:Forbes、Forbes、Gartner、BBC、Innovation)

openvpn哪下载

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x