现在热搜的话题ChatGPT(Generative Pre-trained Transformer),其应用的讨论范围不只於聊天机器,也在於写文章、创作歌曲,以及校园中的「写作业」等,包含报告、程式设计,虽然传统AI应用在於技术上的深度学习跟机器学习,而此时Open AI使用的LLM(Large Language Model, 大型语言模型),又将AI运用推升跃进,推出GPT3.5版本以上的生成式AI,似乎已到了以人类思考、学习进行创作,以及回覆提问者「结果」的程度。

当生成式AI导入商业运用,资讯安全问题如何因应?

科技的进步让人类生活变得便利,甚至单调、机械式的工作机会,也都陆续被AI、Bot(机器人)取代,不到10年,有多少科技创新,「元宇宙」、「MR(混合实境)∕AR(扩增实境)」、「区块链」,以及「云端」、「Open Data(开放资料)」,到现在,这些「新」科技都还没有广泛被应用导入,而GPT-1从2018年问世,以NLP(Natural Language Pre-trained, 自然语言处理),2019 GPT-2,到2023.3最新版的GPT-4,LLM大型语言的训练模式,让ChatGPT变得更有智慧跟应对,技术还在演进,可是一些追新族就迫不急待要想导入商业运用,因此现在谈论对於资讯安全(Cyber Security)的冲击是正面的助益?还是负面的需要被注意?我就以目前阶段的应用层面跟各位分享并交流。

提醒各位在数位科技时代的此时,资安问题所衍生的信任机制变成无可回避,影音串流让影像、声音的视听变得更便利,相对的资讯窜流到资讯爆炸,人们就必须判断资讯的真伪,因为假讯息已经到扰乱日常生活!但也同时让自己的个资流放在各个应用系统(APP)当中,骇客在这样的开放环境中穿针引线,会让资安事件的发生频率增快,每年几乎都以40~50%的事件量在增加,而每次的重大资安事件都是Unprecedent(前所未见),GPT无法事先的训练,所以每一次资安事件在发生後才有新的防护,以防毒软体所制作的解药(Antidose),也是在未知型病毒被采样後,才能进一步产生下一个新版的解药,得以更新修补程式,骇客在此同时,享受并应用科技创新所带来的便捷,尽可能找出漏洞进行突破,魔跟道是同时在进行攻防的。

钓鱼邮件与诈骗电话透过ChatGPT将快速发展,法律层面风险再提升

就在ChatGPT被广泛应用下,其创造(创作)能力就愈强,这样的知识能力,在於使用者给予的「训练」,以及从网路上蒐集并搜寻资料,不知道各位是否听过石头汤的故事:「有一位主人找了朋友来家里吃火锅,主人跟朋友说大家带一些火锅料下锅煮,其他东西则是主人会准备;果然朋友们带来满满锅料,而主人则准备了一个大锅子跟滚烫烧过的石头,丢到锅水当中,热滚滚的水把火锅料给煮熟,大家就可以饱餐一顿。」因此,最近被热烈讨论的ChatGPT,更可加速其平台训练的资料,运算环境更完备,让预先训练的时程更缩短,但其讯息、声音,以及影像,已经让假讯息诈骗的变化更加快速,对钓鱼邮件以及诈骗电话(自动客服)的数量必定会增加,甚至假冒名人的影片进行诈财的投资理财也会让人困扰,已经到达法律层面的风险。FinTech(金融科技)推展如此之久,并没有收到实质业务程序上的数位化,单就开户这个程序,就必须到银行临柜完成,双证件、两式凭一式签章,以及镜头摄影本尊,这样的作业原本在网银开户就可以完成,用影像判别技术完成上述程序,却无法确认本人跟开户个人是否同一人,Deepfake(深度诈欺)可以轻易模拟影像,因为AI学习可以生成拟真肖像,若後续有不法情事(洗钱或人头帐户),银行金融业的损害责任赔偿将无法估计。

对於GPT的LLM技术,是否可以对资安防护有所助益?

如果是对ChatGPT提问,则不失为一种资安意识的教育训练,但以GPT要建构资安防护,将自动回应阻挡机制与GPT整合,前端的规则关联,以及事件过滤就得非常谨慎,因为从资安设备以及软体、工具日志收集的攻击战略与技术必须有专家分析,必要时还必须透过监识比对找出可疑攻击,有些攻击是针对性的恶意程式,也有些则是零时差的攻击(0-Day Attack),防毒软体都没有察觉!!而另一个可以规划的,则是报表自动化,检测、弱扫所产生的报表,必须经过专家解读、摘要,将其报告中述及的弱点分成紧急(Critical)、高(High),进而汇集成对客户的报告,将报告逐步训练GPT,使其之後在读取原始报告後可以产制服务报表,但要注意的是资料是否去识别化,因为原始日志中的网址IP,以及客户名称等属於资料保护范围,令其当成训练原始资料(Data)将会有资讯外泄的风险,因为无法预测GPT在读取大量日志後其他原始日志的去向!!再则有另外付费API的落地版本,在不同版本更新时开放下载时,如何确保仅仅是程式下载?由於其中读取资料的引擎都是在云端,如何更透明化,是商业应用及资安防护所必须了解,以及可被信任的。

因此,目前GPT在商业甚至军事武器的运用或导入,应该是两极的,有一些国家组织计画成立稽核监督,像是即时影像辨别或军事武器其侵犯个人隐私,甚至是无差别攻击,有些企业也禁止在公司内部使用,有些学校则接受学生的自由意志,但必须确保生成资料的正确性与否!!「近朱者赤、近墨者黑」是大家耳熟能详的成语,在训练的资料喂入其对应的後果,可能就因为「毒苹果」而让整个目的扭曲或造成灾难,是注意还是助益,是否就只能依靠使用者的存乎一心? 我相信需要时间的观察,不需要太早下定论。

👉 掌握议题动向,一起加入《远见》 Line官方帐号!

本文章反映作者意见,不代表《远见》立场

(作者为安碁资讯公司总经理)

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论