第 4 天:Web3 时代监控的演变
监测方法随着技术的发展而发展。在web3时代,人工智能与集中式数据系统的结合对隐私和言论自由构成了重大威胁。今天的课程更深入地探讨了监控性质的变化,并强调了去中心化系统在应对这些挑战方面的关键作用。
《面对人工智能驱动的监控,我们需要去中心化的机密计算》讨论了人工智能驱动的监控日益增长的危险,并倡导去中心化的解决方案来保护用户的机密性和自主性。
面对AI驱动的监控,我们需要去中心化的隐私计算
随着AI监控的扩展,去中心化隐私计算(DeCC)提供了一种透明且具责任追踪的敏感信息保护新方案。
——以下为Arcium公司CEO兼联合创始人Yannik Schrade的来稿——
封面/插图来自 CryptoSlate。该图像包含组合内容,其中可能包括人工智能生成的内容。
当 Oracle AI CTO拉里·埃里森(Larry Ellison)描绘出一个全球AI监控网络的愿景,期望借此让公民“保持最佳行为”,批评者迅速联想到乔治·奥威尔的《1984》,将他的商业构想描述为反乌托邦式的监控社会。大规模监控不仅侵犯隐私,还会对心理产生负面影响,威慑民众参与抗议。
更令人担忧的是,埃里森所描绘的AI驱动大规模监控早已成为现实。今年夏季奥运会上,法国政府委托 Videtics、Orange Business、ChapsVision 和 Wintics 四家公司,在巴黎实施视频监控,利用AI分析监测行为并及时报警。
AI驱动大规模监控的现实
这项备受争议的政策得以实施,源于 2023 年通过的立法,允许新研发的 AI 软件分析公众数据。虽然法国是欧盟首个合法化 AI 监控的国家,但视频分析技术本身并非新事物。
英国政府早在 1960 年代便开始在城市安装闭路电视(CCTV),截至2022年,经济合作与发展组织(OECD)179 个成员国中有 78 国使用 AI 进行公众面部识别系统。随着 AI 的不断进步,需求只会增长,推动更精准、更大规模的信息服务。
历史上,政府经常借助技术进步升级监控系统,通常将具体执行工作外包给私企。今年巴黎奥运,科技公司得以在大型公共活动中测试AI训练模型,获取数百万参与者的位置信息和行为数据。
隐私与公共安全的伦理困境
像我这样倡导隐私权的人士认为,视频监控抑制了人们自由无忧的生活。实施这些措施的政策制定者或许会辩称,这是为了公共安全;监控同时也对权力形成制约,比如要求警察佩戴随身摄像头。科技公司是否应获得公共数据,甚至敏感数据在多方之间安全存储和传输的程度,都值得深入讨论。
这引出我们这一代人面临的最大挑战之一:在线存储敏感信息以及数据在不同主体间的管理。无论政府或企业通过AI监控收集私人数据出于何种目的——公共安全或智慧城市建设——都必须有安全可靠的数据分析环境。
去中心化隐私计算:AI 数据隐私的解决方案
去中心化隐私计算(DeCC)运动,正描绘了应对这一问题的路径。许多 AI 训练模型(如苹果智能)采用可信执行环境(TEE),该环境依赖于制造到认证过程中的单点信任链条。DeCC 旨在消除这些单点失效风险,建立一个去中心化且无需信任第三方的数据分析和处理系统。
此外,DeCC 还可实现无须解密敏感信息即进行数据分析。理论上,基于 DeCC 网络构建的视频分析工具能够在不泄露被监控个体敏感信息的情况下,及时发出安全警报。
当前,多种去中心化隐私计算技术正在测试中,包括零知识证明(ZKP)、全同态加密(FHE)和多方安全计算(MPC)。这些方法本质上都是在验证关键信息的同时,避免泄露任何一方的敏感数据。
MPC 已成为 DeCC 的领先技术,支持透明结算和选择性披露,兼具最高计算效率。MPC 允许构建多方执行环境(MXE),即虚拟加密执行容器,任何程序均可在全加密、保密的状态下运行。
在此框架下,既可在高度敏感且隔离的加密数据上训练模型,也可用加密数据和加密模型进行推理。例如,面部识别可在保护数据不被处理方窥探的情况下执行。
随后,从这些数据中获得的分析结果能安全共享给相关方,如安全机构。即便在监控环境下,至少可引入透明度和责任机制,同时大部分数据依然保持隐私和保护状态。
未来展望
尽管去中心化隐私计算技术仍处于发展阶段,其出现揭示了传统信任系统的风险,并为数据加密提供了替代方案。当前,机器学习正逐步渗透城市规划、医疗、娱乐等几乎所有领域。
这些应用都依赖用户数据,DeCC 将在保障个人隐私和数据保护方面发挥基础性作用。为了避免走向反乌托邦,我们必须去中心化人工智能。
