伴随着技术的迅猛发展,人工智能领域的数据隐私问题,逐渐成为专家学者和普通网民用户共同关心的领域。特别是“脸书泄密门”发生之后,个人数据隐私、算法“黑箱”等信息伦理问题的相关探讨与研究日益增多。
人工智能自动化决策的过程,成为个人数据隐私的最大隐患。因为人工智能程序并不像传统分析一样,对数据进行线性分析,而是学习数据、调整算法、智能回应新数据,来作出新的决策,这使得信息的处理过程往往成为一个算法黑箱,很难为一般人所理解,甚至也很难为专业人士所理解。
全国常委会《关于加强网络信息的决定》指出,国家能够识别个人身份和涉及个人隐私的电子信息。那么,在国内用户使用抖音短视频产品时,我们的搜索、浏览、播放、互动等相关信息是否能够受到呢?答案是肯定的。
1.任何一家想要做大做强、且可持续发展的智能化商业公司都会对于相关用户数据实行严格存储与,防止隐私泄露和信息外流,这是合规的起码要求
在字节跳动公司所发布的《“抖音”隐私政策》(2020年2月20日)中明确了信息共享的原则,包括授权同意原则,“未经您的同意,我们不会共享您的个人信息,除非共享的个人信息是去标识化处理后的信息,且共享第三方无法重新识别此类信息的自然人主体”;正当与最小必要原则,即“共享的数据必须具有正当目的,且共享的数据以达成目的必要为限”。关于数据存储地点,则明确了信息不能传输至境外,“依照法律法规的,将在境内运营过程中收集和产生的您的个人信息存储于中华人民国境内。目前,我们不会将上述信息传输至境外”。
有学者提出,从数据生命周期来看,数据发布阶段的匿名发布技术,数据存储阶段的加密存储技术和审计技术,数据使用阶段的加密访问控制技术等不断完善。在技术上,通过隐私技术完成数据流通和数据处理,避免数据直接流通导致泄露用户隐私。近两年来,联邦学习技术(Federated Learning)作为一种新的分布式学习方法,共享模型参数更新,而不是客户端设备中的原始数据,也展现了强大的用户隐私能力。在《“抖音”隐私政策》中,关于隐私信息管理技术也,“使用不低于行业同行的加密技术、匿名化处理及相关合理可行的手段您的个人信息采取严格的数据使用和访问制度,确保只有授权人员才可访问您的个人信息,并适时对数据和技术进行安全审计”。
根据匿名网民的评论,分布式机器学习不是传输数据,而是传输一个训练好的模型。“联邦学习的出现就是为了公司希望获得数据来训练模型,但是又不能泄露用户隐私,所以会在用户本地设备上进行一次学习,将学习好的简单模型上传至公司端,再对参数进行聚合等操作之后再来训练,得到一个较好的模型之后将模型参数传回去,对每个设备进行一次模型优化,以此迭代。”然而,也有网民提出,这也有可能涉及隐私问题,“通过训练完成的神经网络模型反推出训练数据中的信息”,他者有可能利用模型的输出结果,通过参数、权重,来倒推某些训练数据中的信息的可能性与结果。
然而,从总体来反向推断样本,所谓“AI的逆向推理和特征解码”,其实现的可能性有多大,可信度与效果究竟如何,依然未经过大量科学研究的正式检验。正如网友“琉璃”所说,“机器学习模型本质是一个统计信息的集合,这种推介算法模型只能提供群体的兴趣倾向性的统计信息。从模型反推原始数据极难,而且没多少意义”。
必须指出,个人隐私是必须的,但个人信息的使用也是智能化发展中所必须的。梦见吃面条其中是否合理的界限是:个人信息的采集和使用必须履行知情同意的原则,并且不因个人信息的采集和使用而对相关个人的利益、形象及社会关系产生明确和实质性的负面影响。在此界限下,我们应以的态度迎接智能化时代的到来,并且提升我们对于智能化技术的理解,为中国互联网企业的发展营造良好氛围和社会支持。
网友评论 ()条 查看