1950年,英国科学家阿兰·图灵发表了一篇划时代的论文《计算机器与智能》,预言了“创造出思考的机器”的可能性,并提出了著名的图灵测试:如果第三者无法辨别人类与人工智能机器反应的差别,则可以论断该机器具备人工智能。由此,奠定了人工智能(AI)发展的学术基础。
1956年,香农等科学家发起并组织“达特茅斯会议”,并首度提出“人工智能(AI)”概念,正式拉开了这一技术将近70多年的发展序幕。此后,尽管路途坎坷,但人工智能(AI)也获得了长足发展。
而当下,人工智能(AI)凭借独特的技术优势,在控制系统、医疗系统、机器人、经济政治决策、仿真系统中得到了广泛应用,并由此逐渐将触角伸向国家网络安全、信息安全、生物安全、情报安全等各个领域。
让我们先来看一组实例:
l 美国国防部自2016年以来即进行自主智能化网络安全系统开发和部署,目前,该系统已实现网络安全漏洞的自动识别和修复,并可对对手发起攻击。
l 美国中央情报局此前布局137个人工智能(AI)项目,旨在完成诸如图像识别或标记等类似的任务,并根据 ** 息源,分析预测未来的恐怖袭击或内乱等事件。
l 2018年,美国军方通过一项名为“Maven”的先导计划,将人工智能系统与军事作战相结合,从而快速识别伊拉克和叙利亚的叛乱目标。
l 2018年,剑桥分析公司窃取Facebook 5000万用户数据,结合心理学人工智能(AI)分析模型向群体精准投放不同内容,左右舆论导向,达到反恐宣传、总统助选的目的。
l 新冠疫情爆发,人工智能(AI)加持下,医疗机构数字化抗疫高效开展:上百张CT影像筛选秒级完成,实时机动病毒基因测序全平台覆盖……诊断效率提升至少10倍以上,强力助推疫情防控工作的顺利展开。
以上不难看出,人工智能(AI)的数字化能力,早已渗透到国家安全内部脉络,围绕网络空间、情报监控、生物安全、医疗安全、政治大选、军事国防等各个领域,强力造就了新一代国防安全的又一面向。
然而,威胁与发展同在。在围绕国家安全和相关国家机构的授权之下,人工智能(AI)的使用本身也存在有关技术滥用、人权隐私等一系列安全隐患:如,出于调查目的的个人信息搜集与大规模监视行动之间的边界如何划分?若攻击者针对应用于国家安全的人工智能(AI)技术发起攻击,我们该如何应对?
这一担忧并非杞人忧天。随着全球新冠疫情的大规模蔓延,生物安全首当其冲成为人工智能(AI)领域安全隐患曝雷的受害者。
首家人工智能医疗机构遭遇攻击 新冠病毒AI检测相关技术惨遭泄漏美国当地时间4月25日,网络安全平台Cyble在推特上曝出:
一位名叫THE0TIME的黑客攻击了某医疗人工智能公司,窃取了有关新冠病毒AI检测技术的相关数据,其中包括150MB的新冠病毒研究成果信息、1GB的技术相关内容和源代码、1.5MB的用户数据,并在暗网上以4比特币(约合3万美元、21万人民币)的价格公开出售。
该医疗机构表示,这项新冠病毒AI检测技术能够通过CT扫描胸部确认患者是否感染新冠,且其拥有96%的准确率,云端或本地环境中都能进行工作,可作为一个高效的辅助诊断手段,进一步加快病患诊断速度。据有关消息称,这项系统已在海内外十多个国家,三十多家医院部署。
这一攻击发生后,不仅大大延缓了海内外多个国家的新冠肺炎的治疗进度,更是给尚在襁褓之中的医疗人工智能(AI)行业一记重击。
要知道,医疗影像领域向来注重隐私,尽管本次事件泄露的数据并未含有患者信息,但此举也极大地摧毁了用户、医院、外界等对于医疗智能系统安全的信心。未来,医疗人工智能(AI)的发展,道阻且长。
智库时评科技本向善。尤其在当下全球数字化转型加剧,“新基建”发展背景下,人工智能(AI)也会愈发瞩目,在医院、银行等关键基础设施以及国防等各个领域都将大放异彩。
而与此同时,人工智能(AI)相关的安全隐患也必然会喷薄而出,未来,人工智能(AI)领域定会风云激荡、敌情不断。
而对我们来说,如何在兼顾发展的同时,筑牢AI领域的安全防护栏,值得深思。
还木有评论哦,快来抢沙发吧~