李晓东:数据相互连通互操作:下一代互联网的发展方向
11月8日上午,2025年世界互联网大会乌镇峰会下一代互联网论坛在浙江乌镇举行。伏羲智库创始人、CNNIC原主任、互联网域名管理技术国家工程实验室原主任李晓东教授受邀发表主旨演讲,全面阐述了在数字化时代,构建以数据互操作为核心的下一代互联网基础设施、完善数据互操作有关技术体系与治理规则的必要性。
本文系李晓东教授依据在下一代互联网论坛的发言内容扩展整理而成,以飨读者。
在当今数字化、网络化和智能化时代,数据已成为关键的战略资源,互联网基础技术也正经历新的演进。回顾互联网的发展历史不难发现,从20世纪70年代实现计算机之间的互联,到90年代万维网联通全球信息,再到如今迈向以数据相互连通互操作为核心的新阶段,数据的连接与信息的共享始终是网络演进的主线。如今,我们初步迎来了一个“数智网”的雏形,这是一个以可信数据驱动、智能体互联的价值互联网时代。简单来说,新阶段的互联网不再仅仅连接机器或网页,而是要连接分散的数据空间和无处不在的智能应用,并在此过程中确保更高的可信与安全。为此,需要以OSI七层模型的视角重新审视互联网和万维网结构,在应用层分离出数据表示层和会话控制层等“缺失的层级”,以满足跨域数据交换和身份信任的新需求。构建这样的数智网,将奠定数字时代新型基础设施的框架。
互联网的发展可以概括为核心互操作单元不断的提高的过程。在早期(20世纪70年代左右),互联网通过TCP/IP协议套件解决了不可靠网络上主机间可靠通信的问题,实现了“主机互联”,为全世界的数据互通奠定了基础。这一阶段的标志是ARPANET的建成和TCP/IP协议在80年代初成为标准,使不同计算机网络互联成为可能。其后,进入90年代,伴随蒂姆·伯纳斯-李发明的万维网(,互联网进入“网站互联”时代。HTTP协议和DNS域名系统提供了一种结构化方式组织和定位信息,使全球的信息资源能够最终靠统一地址进行访问和链接。万维网的出现大幅度降低了大众使用互联网的门槛,实现了信息的全球共享。万维网是一个在互联网之上实现内容共享的信息系统,使文档和资源能够按照统一规则访问,由此全球数十亿用户得以方便地获取和发布信息【2】。
如今,互联网正迈向第三个阶段,即“数据对象互联”时代(以下简称,数据互联)。在这一阶段,中心挑战是支持数据在全球不可信环境中的安全、可信、合规地流动与协同。数据已成为经济和社会持续健康发展的重要要素,但其潜力受到数据孤岛、主权争议、滥用和隐私泄露等障碍的限制。因此,迫切地需要一种新的基础协议和架构来统一不同主体、不同地域间的数据交换,在保障数据所有者权利的前提下,实现数据的自由流动和价值创造。可以说,数据的互联互通互操作正成为继主机互联、网站互联之后互联网演进的下一里程碑。
“数智网”是对新一代互联网形态的形象称谓,其核心特征是数据对象以及智能体(AI代理)之间的相互连通互操作。在这一网络中,数据将像过去的信息和主机一样,成为可以被直接寻址、交换和处理的对象单位。要实现这一点,需要在现有互联网之上引入新的关键要素【1】:
数据互操作协议(Data Interoperability Protocol, DIP):类似于TCP/IP之于主机互联、HTTP之于网站互联,一个面向数据交换的基础规则集合。DIP旨在规范不同系统间数据交换的格式和流程,提供统一的通信语义和机制。例如,我们团队提出的DIP通过将现实世界或数字世界的任何实体(个人、组织、设备、服务、数据集等)抽象为“数据对象”(DO),并为其定义标准化的交换方式。
数据互操作系统(Data Interoperability System, DIS):这是支撑大规模数据互联互通的核心基础设施,类似于互联网中的路由器、服务器等。数据互操作系统可以被视作数据空间的“操作系统”,通过“数据中枢”模式实现数据与应用的解耦互联。数据资源被封装在标准化的自治数据空间中,应用则通过统一的中枢接口来访问所需数据,从而避免每个应用对接每个数据源的重复集成。这一模式能明显降低跨系统数据调用的复杂度,提高网络的安全性和稳定能力,并确保数据交换的可信可控。
数据对象标识(Data Object Identifier, DOI):赋予每个数据对象一个全球唯一且可验证的身份标识,是实现数据可定位和可信流通的前提。DIP的一个核心设计是将DOI定义为与DNS域名语法和语义等价的标识。也就是说,每个数据对象的ID可以直接映射到DNS命名空间,通过DNS的全球解析体系来作为信任锚。这充分借鉴了数字对象架构(DOA)中的Handle/DOI思想:为数字资源分配唯一持久标识符,并通过解析系统定位对应的资源【3】。在DIP中,数据对象的元数据(例如存储位置、公钥、访问控制策略、完整性校验值、合规属性等)都作为数据对象属性(DOA)与标识相关联,并存储在DNS中便于全球查询。通过这一种方式,大量异构数据资源可以纳入统一的命名与信任框架,实现可信的互联互操作。
概括而言,新一代数智网通过上述要素,实现数据在不同主体和地域间安全、高效地流动与协同。数据将不再局限于孤立的平台或系统内,而能够像信息和内容一样在网络中被发现、访问和利用。当然,这对基础设施提出了更加高的要求,包括身份认证、授权、隐私保护、合规保障等方面的全新技术和规则支撑,我们将在后续章节详细讨论。
互联网能够发展为全球基础设施,离不开统一的基础技术标准及其不断演进升级。回顾历史,全球统一的IP地址和DNS域名体系是早期互联网成功的基石:它确保了网络资源具有唯一的标识并可被寻址,以此来实现任何两台联网计算机都可以互通。正如ICANN所强调的,DNS采用单一的全球根,提供全局唯一的命名空间,从任何地方查询同一域名都应得到一致结果【4】。这条唯一性和一致性原则,保障了互联网作为“网络的网络”能战场运作。
IPv6:为摆脱IPv4地址枯竭的限制,IPv6在1990年代后期被提出并逐渐部署【5】。它采用128位地址空间,提供了几乎无限的地址数量,确保未来每台设备、每个用户都能拥有全球唯一的IP地址。IPv6还恢复了端到端通信模型,减少了对NAT的依赖,从而改善了网络性能和安全。近年来中国在IPv6部署上成果显著——截至2025年6月,中国IPv6活跃用户已达8.34亿,占网民的75%以上,IPv6流量占全国互联网流量31%。中国正通过一系列行动计划(如CNGI工程、IPv6行动计划等)建设全球顶级规模的IPv6网络,为下一代互联网奠定基础【6】。
国际化域名(IDN):为促进互联网的多语种和文化多样性,2000年代引入了国际化域名技术,使域名能够正常的使用非拉丁字符(如中文、阿拉伯文等)。IDN通过Punycode编码将本地语言脚本映射为DNS能处理的ASCII字符串,实现了本地语言域名到现有DNS体系的兼容【7】。例如,中国的国际化国家顶级域名“.中国”就是IDN ccTLD之一,于2010年获ICANN批准并进入根域。IDN的推广使非英语用户能以母语访问互联网资源,极大提升了全球互联网的普惠性。
DNSSEC和DANE:随着网络承担慢慢的变多关键应用,对安全信任的要求提高。DNSSEC(域名系统安全扩展)为DNS引入了数字签名机制,通过公钥加密保证DNS解析结果的完整性和真实性,防止域名劫持和缓存投毒等攻击。部署DNSSEC后,客户端DNS解析器可以验证响应是否由权威服务器签名,从而建立对DNS数据的信任链。同样,DANE(基于DNS的命名实体认证)利用DNSSEC的信任机制,将服务器的TLS公钥证书指纹等发布在DNS中(TLSA记录),实现通过DNS验证证书。这允许客户端在SSL/TLS握手之外,通过DNS查询验证服务器证书是否匹配,由此减少对第三方证书颁发机构的依赖,增强通信安全。DNSSEC和DANE等扩展的逐步部署,提升了互联网基础服务层的安全可信度,为数据互操作打下更坚实的信任根基。
新架构探索:为增强互联网的普适性和韧性,各国和产业界近年来提出了一些新架构设想。例如,区块链域名服务通过利用区块链的分布式账本在链上注册域名,实现去中心化的域名解析体系。Namecoin、Ethereum Name Service(ENS)等就是这类系统的实例,号称可避开传统DNS的单点控制和审查,提供更强的抗篡改和隐私保护。此外,前文提到的数字对象标识(DOI)体系(如Handle系统)也是重要探索之一。数字对象架构(DOA)由互联网联合发明人、CNRI的罗伯特·卡恩博士提出,包含唯一持久标识、存储库和解析系统。Handle/DOI已在数字图书馆和科研数据中大范围的应用,为全球数据资源提供统一命名。
值得一提的是,在互联网治理机制方面,同样经历了演进与扩展:IETF自1986年成立以来,一直负责核心互联网协议标准的制定和维护,采用开放、协作的多利益相关方模式【8】。W3C自1994年成立后,引领Web标准(HTML、XML等)的制定,促进万维网的互操作。ICANN自1998年成立,承担域名、IP地址等分配管理,保障全球统一根和地址空间的稳定运行。随着数据互联时代的来临,新的标准组织和治理架构也在酝酿之中。工业界和学术界正在探讨建立数据空间联盟或国际数据治理框架,以协调跨境数据流动的规则标准。伏羲智库、中国科学院计算技术研究所、清华大学互联网治理研究中心等团队联合发起了“互联网发展合作网络(Internet Development Consortium)”,希望聚合全球力量一同研究互联网下一代互操作技术和标准,并适时推动开源开放合作。
总体而言,互联网基础技术标准一直随着需求变化而演进升级。从统一地址、统一命名到统一数据标识和协议,技术与治理两个轮子共同驱动,塑造出互联网今日的开放互通格局。展望未来,在数据要素驱动的新时代,继续坚持开放合作、标准先行的原则,将有利于构建开放、可信、韧性的新型互联网基础设施。
尽管数据已深度融入经济社会的所有的环节,但我们现有的技术和治理体系还难以完全适应数据时代的需求。当前互联网基础设施贯穿数据的采集、传输、存储、计算、应用等全生命周期,但缺乏统一的标准和规则来规范数据的管理和使用。这导致了多方面的问题和挑战:
隐私泄露与安全事件频发:近年来全世界内重大数据泄露事件层出不穷,暴露出数据安全防护和隐私保护的不足。例如,某些网络站点平台发生用户个人隐私信息大规模泄漏,或算法不当使用造成歧视性结果。这在某些特定的程度上反映出当前在算法治理、数据分类分级等方面缺少统一标准和行业准则,各机构各自为政,导致安全漏洞和违反相关规定的行为屡有发生。
数据孤岛严重,难以共享:政府部门、行业机构、企业内部往往形成彼此隔离的“数据烟囱”。不同部门和区域之间数据缺乏流通机制,即使有共享需求也面临制度和技术障碍。一大原因是没有统一的数据标识体系来标记和索引跨机构的数据资源,数据确权和利益分配机制也不健全,导致数据提供方缺乏共享的激励。一项调查指出,大量高价值数据沉淀在不同部门和企业内部,彼此孤立,造成数据资源浪费和协同低效【9】。数据难以流动也限制了人工智能、大数据分析等应用的效果,成为数字化转型的瓶颈。
缺乏数据全生命周期治理:数据从生成到销毁涉及多个环节,包括采集、传输、存储、计算、应用、消亡等。目前并没有一套通用的框架来规范每个环节的行为。例如,数据质量如何保证、数据使用权限如何管理、算法对数据的使用如何透明可解释,这样一些问题都缺少明确指引。数据治理的缺失不仅带来合规风险,也导致数据价值难以充分释放。
针对这些挑战,中国政府近年格外的重视数据基础制度建设。2020年以来陆续出台了《数据安全法》《个人隐私信息保护法》等法律和法规,明确数据分类分级保护要求,加强对敏感数据、个人隐私信息出境的监管。2022年底,中央、国务院发布《关于构建数据基础制度更好地发挥数据要素作用的意见》,提出完善数据产权、建立数据要素流通交易制度、健全数据安全治理体系等一系列举措【10】。文件强调要打破数据壁垒,推进政府数据开放共享和公共数据融合应用,并鼓励合规的市场化数据交易,释放数据要素价值。与此同时,中国还热情参加全球数据治理对话,例如在二十国集团(G20)框架下支持“数据自由流动与可信”(DFFT)的倡议,倡导在保障各国数据主权和安全的前提下,促进跨境数据有序流动【11】。这些努力一种原因是中国在数据治理方面的有益探索,另一方面也为全世界的数据治理提供了经验参考。
当前,不相同的领域和行业往往各自发展自己的数据标识和解析体系,彼此之间缺乏兼容与互认,导致更严重的数据割裂现象。这种标识体系碎片化带来了几方面问题:
各行业内部可能有完善的标识规则,但跨行业跨领域时就无法直接引用对方的数据标识。例如,医疗领域有病历号、金融领域有账户号、物联网有设备ID,但缺少统一框架将这些标识关联起来。一项政策研究指出,大量数据因缺乏统一标识和标准,难以被其他系统发现和使用,形成“数据烟囱”。
某些标识体系是围绕特定应用建立,未考虑与互联网基础设施的衔接,因而无法跨平台解析。例如,有的物联网平台使用自有的设备命名和寻址方案,但这些ID在互联网另外的地方无法解析定位。又如,不一样的行业的数据编码标准各异(如商品编码、地理信息编码等),缺少映射关系也难以互通。
标识体系的分散还导致重复建设和资源浪费。每个部门为满足自身要开发标识方案,增加了系统复杂性。更重要的是,不同体系之间如果缺乏互认机制,甚至有可能产生冲突。比如,不同机构可能不约而同使用某种简单ID格式,出现命名碰撞风险。
为解决这样一些问题,需要在国家和全球层面加强顶层设计,对数据标识标准做统一规划和部署。一方面,应推动制定通用的数据标识规范,比如基于DNS的层次结构为不同域的数据标识分配前缀,确保全球唯一性。另一方面,建立标识解析的互联互通机制,让不同体系间的解析服务能够对接。国际上,数字对象架构(DOA)和Handle系统是一个尝试,它通过全局Handle注册中心分配唯一前缀,各本地Handle服务管理子前缀,实现跨机构的标识解析。
当数据要在不同网络域、不同主体之间互操作时,身份认证和权限管理成为首要难关。传统互联网的身份体系往往是域内自洽的,各网站各系统自行管理用户身份和权限,这在跨域场景下带来了几个突出问题:
身份信息孤岛:用户要在不同平台分别注册账户、设置密码,缺乏统一的数字身份。在多个域之间,没有一个被普遍信任的身份凭证,使用户每次跨平台访问时都要重新认证,既不便捷也增加安全风险。例如,同一用户在A系统有账号,但到B系统仍需重新验证,因为双方身份系统互不信任。
重复认证和单点故障:为方便用户,出现了一些集中式身份认证方案(如OAuth、单点登录SSO等),通过一个身份提供方(IDP)为多个应用做认证授权。但是在更大规模的多边互联场景,这种模式会遇到信任和扩展性挑战:依赖单一中心的授权既缺乏灵活性,也难以扩展到全世界。当跨域参与方数量众多且互不隶属时,指望一个中央权威来管理所有身份关系并不现实,而且一旦该中心失信或被攻破,整体安全将受牵连。
信任和隐私不一致:在跨境跨域认证过程中,各地区对安全和隐私的要求不完全一样。比如欧洲注重隐私保护,不允许身份数据随意共享;有的国家要求对用户身份进行强实名验证。这种标准的不一致导致当身份数据在域间交互时,易发生泄露滥用或违规。例如,若将甲国收集的用户身份信息提供给乙国服务使用,可能触碰甲国隐私法的红线,也可能因标准差异出现数据理解偏差,带来安全隐患。
针对以上难题,业界和标准组织正积极探索新技术和框架。其中去中心化身份(DID)是非常关注的方向。DID由W3C提出,旨在赋予用户一个自主可控的数字身份标识(如did:example:123456),背后绑定公私钥对,用于跨主体的身份认证。DID体系没有中央发行机关,每个主体可自行生成DID并通过区块链等分布式手段登记验证。凭借DID,用户都能够对不同行政域、平台出示同一身份标识,由密码学手段验证,无需每个平台各建账户,从而减轻重复认证负担【12】。此外,配合可验证凭证(VC)技术,用户还能携带由权威签发的属性证明(如驾照、学历证明)在不同域证明自身属性,而不暴露额外信息。这些技术有望增强跨域身份管理的隐私性和便利性。
然而,仅有技术远远不足。真正落地一个兼顾安全、隐私与便利的跨域信任体系,还需要各国监督管理的机构和标准组织的通力合作。例如,需要就跨境身份验证的信息共享范围、数据保护责任等达成共识;制定统一的协议标准,让不同实现能够互通。目前,像去中心化身份这样的新框架还处于标准完善和试点阶段,大范围的应用仍面临法律承认、互信框架建立等挑战。未来一段时间,国际社会需要在数字身份领域加强协作,通过多边机制(如联合国数字合作倡议、ITU相关工作组等)推动互操作性强的身份与认证标准,解决数字世界“谁是可信的人/实体”的问题。一旦身份和信任的问题解决了,数据才能在更大范围内自由安全地流动。
数据的跨境流动为数字化的经济带来机遇,但各国的法律监管差异也使其面临复杂的合规门槛。以个人隐私信息为例,欧盟的《通用数据保护条例(GDPR)》规定了严格的个人数据出境条件,要求接收方所在国具备充分的数据保护水平或采用标准合同条款等保障措施,否则企业将无法将欧盟用户的数据传出。同样,中国的《个人隐私信息保护法》《数据安全法》也对向境外提供中国境内个人隐私信息设置了安全评估、标准合同、认证等前提要求。如果缺乏兼容各方法律要求的解决方案,企业在不同司法管辖区之间传输数据就可能违规,面临巨额罚款乃至刑事责任。这种法规不互认的状况,严重阻碍了数据跨境共享。
与此同时,各国日益强调数据主权概念,主张“数据不出境”或“数据本地化”。很多国家要求敏感数据必须存储于本国境内,部分出于保护公民隐私安全,部分出于维护国家安全和经济利益的考虑。例如,中国规定关键信息基础设施运营者在境内收集的个人隐私信息和重要数据应当在境内存储,确需出境的须通过安全评估。俄罗斯、印度等国也出台了数据本地化法。虽然这些措施初衷是防范数据被外国滥用,但从全球视角看,如果各国都筑“数据墙”,将导致互联网碎片化,不利于国际业务开展和技术创新。
此外,当前集中式的数据存储和处理模式(如大量数据集中在几家跨国科技公司手中)也引发各国警惕。若发生数据滥用或大规模泄露事件,其影响面之广让监管者担忧。各国希望能够通过掌控数据存储和流向,降低此类系统性风险。但完全禁止数据外流既不现实,也阻碍了数据价值创造。因此,需要寻找技术与政策相结合的方法,在保障数据主权的同时实现数据可用。近年来出现的联邦学习、多方安全计算等技术路线提供了思路:让数据“可用不可见”。例如,联邦学习允许在多个机构各自保存数据的前提下,共同训练机器学习模型,中间只交换模型参数更新,不交换原始数据【13】。这样既能从全局数据中提取知识,又避免了原始数据的集中和泄露。同理,多方安全计算利用密码学算法(如同态加密、秘密共享),使得参与各方在不知道对方数据内容的情况下完成联合计算,最终只获得计算结果。这些技术已在医疗、金融等领域开展试点应用,实现数据留在本地,价值产生全局。
从治理角度,国际社会正认识到要建立统一的跨境数据规则和信任机制。二十国集团(G20)近年来多次讨论数据自由流动与可信(DFFT),倡导各国在数据流动政策上加强协调。经济合作与发展组织(OECD)也发布了跨境数据流动建议,鼓励成员国采取互认隐私保护框架等措施。联合国层面,秘书长数字合作高级别小组在报告中呼吁制订全球数字信任架构。在已经出台的“全球数字契约”中,数据治理慢慢的变成了重要议题,联合国已经设立了数据治理工作组。只有通过这类国际合作,才能避免各国各行其是、碎片化发展,寻求平衡数据主权与跨境数据流通的道路。在保障国家安全和个人隐私的前提下,制定互操作的国际规则,将有利于释放数据驱动的创新红利,促进数字化的经济健康发展。
面对上述技术和治理难题,我们提出并正在研发一种新的互联网基础技术架构思路——数据互操作系统,其核心理念是通过“数据中枢(Data Hub)”模式,实现数据与应用的解耦互联。这一架构试图从根本上改变当前数据封闭割裂的局面,为数据要素的流通提供类似于“电网”的公共基础设施。
在传统模式下,数据通常深度绑定在特定应用或平台内:应用系统既负责业务逻辑,也自建数据存储和管理。这样一来,不同系统之间要共享数据十分艰难,需要逐一建立接口,进行格式转换、权限校对等耗时操作。这导致数据孤岛现象普遍,重复开发成本高企。比如,一个智慧城市项目中,交通系统的数据要提供给环保系统使用,往往需要定制开发对接,每增加一个部门就要重复劳动,严重阻碍了数据的综合利用。
数据中枢架构充分借鉴了互联网的域名系统的经验模式,通过在应用层和数据层之间插入一个抽象层来解决这一问题。具体而言,它将数据资源从具体应用中剥离出来,放入若干自治的数据空间(类似数据池或数据沙箱)。每个数据空间可以由某机构或个人管理,内部数据按标准格式组织,附带明确的元数据和访问策略。应用要获取数据时,不再直接连接各数据源,而是统一与数据中枢对接。数据中枢充当“数据交换站”和“权限网关”的角色:根据应用请求,在各有关数据空间中检索所需数据,合并处理后提供给应用。同时,中枢根据预设的权限策略和合规规则,确保只有合乎条件的请求才能访问受控数据。这种模式下,应用开发者只需面向数据中枢编程,而无需关心背后有多少异构数据源、各自接口如何,从而大幅度降低系统集成复杂度。对于数据提供方来说,通过数据中枢发布数据,可以方便地服务多个应用,且数据访问全部经过中枢的认证、审计,安全可控。
我们的研究表明,数据中枢架构有望带来多重好处:首先,它打破了数据孤岛,使原本分散的数据资源在逻辑上联通起来,支持跨部门跨领域的数据融合应用。其次,它保障数据权属和安全——数据仍由原始持有者掌控,中枢只是在授权下代理交换,并记录操作痕迹,有助于落实数据确权和隐私合规要求。第三,它提高开发效率,通过标准接口和服务,大幅度减少重复的数据接入工作,让开发者专注于业务创新。这一模式在智慧城市、产业互联网等场景有很强的适用性:城市中的交通、能源、环保、医疗等数据能够最终靠中枢汇聚联通,在应对突发事件、优化城市运行方面发挥更大作用;企业内部各部门数据也可通过中枢共享,促进业务协同和决策智能化。
目前,我们已在实验环境中初步实现了一个原型数据互操作系统,并在某些行业场景进行了为期一年半的测试。采用数据中枢后,应用获取现有数据的时间将从过去的数周缩短到数天、数分到数秒,数据调用的失败率也将显著下降。这些验证增强了我们对数据中枢模式的信心。当然,要将其推广成为通用基础设施,还要解决标准统一、性能扩展、治理模式等问题,但我们始终相信这是方向所在。
在实践中,我们团队构建了数据互操作架构(DIA),并研发了数据互操作系统(DIS)作为数据空间的“操作系统”,并基于此提出了数据互操作协议(DIP)。正如前文所述,DIP的思路是抽象万物为数据对象(DO),为每个数据对象赋予全球唯一的数据对象标识(DOI),并通过扩展DNS等现有互联网基础设施来实现标识解析和元数据管理。值得强调的是,DIP并非另起炉灶重新发明轮子,而是在充分借鉴DNS等互联网标准协议的基础上做了扩展设计。例如,DIP明确了跨域数据交换涉及的对象、角色、管理和服务要素,规范了数据请求、授权、传输、确认等流程,每一步都基于现有协议(如HTTPS用于数据传输,DNS用于元数据查询,OAuth用于授权等)来实现,从而兼顾了创新性与兼容性。
具体而言,在DIP框架下,当一个应用需要访问某项数据时,首先通过数据对象标识(一个类似域名的字符串)在DNS中查询对应的数据对象属性记录。这些记录采用我们为DIP定义的新型DNS资源记录类型,包括:数据定位记录(DLR)用于提供数据存放地址(如URI),数据对象公钥(DOPK)记录提供发布者的公钥实现身份认证,授权记录(DOAUTH)列出访问控制策略,完整性校验记录(DODIGEST)存放数据哈希,以及分类分级(DOCG)和算法治理(DOALGO)记录用于标明数据的敏感级别和可用算法。通过DNS查询,应用可获得目标数据对象的这些元数据,然后依据其中信息决定如何获取数据、验证数据可信性等。整一个完整的过程中,DNS扮演了DIP的元数据注册与发现平台角色。考虑到DNS在全世界的成熟部署和高可用性,这样设计利用了DNS的优势作为DIP的信任基础设施。
为满足DIP对结构化元数据的需求,我们向IETF提交了互联网草案,提议新增上述DNS记录类型(DLR等)。相较于简单地把元数据塞进TXT记录,这种方法能提供语义清晰、解析高效的方案。我们也将在W3C的数据共享社区组提交了有关技术报告,包括对DID进行改进等。虽然推进新标准任重道远,但可喜的是,已经有国际同行对我们的思路表示兴趣,并有意参与共同完善。
除了标准制定,我们还注重推动产业生态的形成。我们倡议并发起了一个开放互信的“互联网发展合作网络(Internet Development Consortium)”,并计划打造针对数据相互连通互操作的开放实验室,吸纳对数据互操作技术感兴趣的机构和专家加入。通过这一个网络进行实验室协同,我们共享实践经验,开展相互连通测试,目的是打造全球数据交换开放平台。当技术成熟时,我们计划通过该合作网络将DIP相关的软件实现开源,供全球社区使用和贡献。毕竟,在数字时代,没有哪个国家或组织能闭门造车、孤立发展。互联网过去半个世纪的成功经验表明,开放协作、互联共享是实现共同繁荣的关键。我们大家都希望在数据互操作这一新领域,同样秉持这一理念,与国际同行携手制定和采用互操作标准,共同建设面向未来的、安全开放且韧性十足的新一代互联网基础设施。
站在互联网演进的新十字路口,我们深刻体会到一个亘古不变的主题:互联共享。从最初连接计算机的物理网络,到连接信息的万维网,再到今天旨在连接数据与智能的价值网络,每一步都是在追求更大范围、更高层次的互联互通。而互操作标准和协议,则是实现这一目标的基石【14】。当前,数据作为关键要素正推动数字化的经济浪潮,但若无法解决可信数据的互联互通互操作问题,这股浪潮的红利将大打折扣。幸运的是,我们已看到了希望的火花——无论是各国政策的调整,还是技术界的创新探索,都在向着促进数据安全流动和融合应用的方向努力。
未来,我们应该进一步凝聚共识:开放而可信的数据互操作体系对全球都有利。这既包括技术标准的共建,也包括法律政策的协调。互联网自诞生以来形成的多利益相关方治理模式,经过改进提升形成多元主体协同治理模式,在数据时代能发挥出非消极作用——政府、企业、技术社群、学术机构和用户代表,都应参与到数据治理和标准制定中来。通过广泛对话和合作,我们有望找到在保护各方正当权益的同时,实现数据自由流动的方法。
可以预见,一个开放、可信、韧性的下一代互联网正在发展中。其中,数据将在可信环境中顺畅流动,智能应用将无处不在地协同服务人类,个人隐私和国家主权也将在技术和制度的双重保障下得到维护。要实现这一图景,没有捷径,唯有坚定地走互联共享之路。在这过程中,我们将逐渐完备技术、试错改进,同时也加强国际合作,求同存异。让我们秉持互联网过去半个世纪形成的珍贵文化理念,打破壁垒,连接你我,共同谱写数字时代互操作的新篇章,为人类社会的可持续发展贡献数字力量!
【9】国家发改委高技术司. 激活数据要素市场化配置改革动能,筑牢“人工智能+”行动发展基石
【10】中央 国务院. 关于构建数据基础制度更好地发挥数据要素作用的意见
-
上一篇:好大⋯好长⋯好紧宁荣荣3d
下一篇:如何破解云安全基本问题
