《数字服务法》威力几何?马斯克 X 平台突遭欧盟调查

CN
3 小時前

撰文:张烽

2026年1月26日,欧盟委员会正式宣布,依据《数字服务法》(Digital Services Act,简称DSA)对马斯克旗下的X平台(原Twitter)启动一项新的正式调查。此次调查的核心焦点的是X平台内置的人工智能模型Grok所驱动的推荐算法,重点评估该算法是否存在传播非法内容的风险,包括伪造露骨色情图像、儿童性虐待材料等违规内容。

欧盟委员会明确表示,后续将通过发出更多信息请求、开展访谈、实施现场检查等多种方式持续收集证据,若X平台未能对其服务进行实质性调整以满足合规要求,欧盟将依法采取临时措施,并作出不合规认定,届时X平台可能面临巨额罚款乃至业务限制等严厉处罚。

一、《数字服务法》(DSA)制定背景与主要内容

欧盟此次对X平台的调查,核心依据是《数字服务法》(DSA)。2023年8月起,亚马逊的第三方市场Marketplace、苹果的App Store应用商店,以及其他16项互联网服务受欧盟《数字服务法案》的约束,2024年2月17日起适用于欧盟所有在线平台。该法案是欧盟数字战略的核心组成部分,也是全球范围内最为严格、最为系统的数字服务监管法规之一,其出台并非偶然,而是基于数字服务快速发展带来的诸多治理难题,旨在规范数字服务提供商的行为,保护用户权益,维护数字空间的公平与安全。

(一)制定背景

随着互联网技术的飞速发展,数字服务已深度融入欧盟公民的日常生活,但数字空间的乱象也日益凸显,成为欧盟监管部门亟待解决的难题。一方面,非法内容或不当内容在数字平台上的传播愈发猖獗,不仅危害公民的人身权利、人格尊严,还可能引发社会矛盾,破坏社会公共秩序,甚至危害国家安全;另一方面,大型数字平台凭借其垄断地位,滥用市场优势,随意收集用户数据、操控推荐算法、限制竞争,既损害了用户的隐私权益,也阻碍了数字行业的创新发展。

《数字服务法》的制定,正是为了应对上述挑战,其核心目标是建立一个安全、透明、公平的数字单一市场,平衡数字服务创新与用户权益保护、公共利益维护之间的关系,同时强化欧盟在全球数字治理中的话语权。DSA通过建立统一的监管规则,覆盖所有在欧盟境内提供数字服务的提供商,无论其总部是否位于欧盟,均需遵守该法案的要求,有效遏制了「监管套利」行为。

(二)主要内容

《数字服务法》的内容涵盖了数字服务监管的各个方面,核心围绕「分级监管、责任明晰、透明可追溯」三大原则展开,将数字服务提供商分为不同层级,根据其规模和影响力,施加不同程度的监管义务。

一是明确监管适用范围。DSA的监管范围极为广泛,覆盖所有在欧盟境内向用户提供数字服务的自然人、法人和其他组织,无论其总部位于欧盟内部还是外部,只要服务对象包含欧盟公民,就必须遵守该法案。具体而言,涵盖社交平台、搜索引擎、电商平台、云服务提供商、应用商店等各类数字服务,其中,对「超大型在线平台」(Very Large Online Platforms,VLOPs)和「超大型在线搜索引擎」(Very Large Online Search Engines,VLOSEs)设定了更为严格的监管要求——根据DSA规定,月活跃用户超过4500万的平台将被认定为「超大型在线平台」,X平台、Meta旗下的Facebook、Instagram等均在此列。

二是分级设定平台责任。DSA根据数字服务提供商的规模和影响力,将其分为四个层级,分别设定不同的责任义务:第一层级是基础服务提供商(如网络接入服务),仅需履行最基本的合规义务,如配合监管部门调查;第二层级是普通数字服务提供商(如小型社交平台、小众电商),需履行内容审核、用户投诉处理等义务;第三层级是宿主服务提供商(如云存储、论坛托管),需对用户上传的内容进行初步审核,及时删除明显的非法内容;第四层级是超大型在线平台和超大型在线搜索引擎,需履行最严格的监管义务,包括定期开展风险评估、建立独立的合规体系、接受第三方审计等。

三是规范算法与内容管理。这是DSA的核心内容之一,也是此次欧盟调查X平台的关键依据。法案明确要求,数字服务提供商需对其使用的推荐算法进行规范,确保算法的透明度、可解释性和公平性,不得利用算法传播非法内容、误导用户或实施歧视性行为。对于超大型在线平台,还需定期公开算法的运行原理、推荐逻辑,以及算法可能带来的风险,并采取有效措施缓解算法引发的系统性风险。同时,法案要求所有数字服务提供商建立健全非法内容审核机制,及时处理用户投诉的非法内容,对于明显的非法内容(如恐怖主义宣传、儿童性虐待材料),需在规定时间内删除或下架。

四是强化用户权益保护。DSA将用户权益保护放在重要位置,明确规定用户享有知情权、选择权、投诉权和数据隐私权。例如,用户有权了解平台推荐算法的基本逻辑,有权拒绝平台的个性化推荐;平台需建立便捷的用户投诉渠道,对用户投诉的非法内容或违规行为,需在规定时间内予以回应和处理;平台不得随意收集、使用用户数据,需严格遵守《通用数据保护条例》(GDPR)的要求,保护用户的隐私权益。此外,法案还特别关注未成年人、弱势群体的权益保护,要求平台采取特殊措施,防止未成年人接触有害内容。

五是建立严格的执法与处罚机制。DSA明确了欧盟委员会、各成员国监管机构的执法权限,建立了统一的执法协调机制,确保监管规则的有效实施。对于违反DSA的数字服务提供商,欧盟将根据违规情节的轻重,采取不同的处罚措施:轻微违规将被处以警告、责令整改;严重违规的,将被处以最高相当于其全球年营业额6%的罚款,这一罚款比例远超其他监管法规,具有极强的威慑力。此外,对于持续违规、拒不整改的平台,欧盟还可采取临时措施,包括限制平台的功能、暂停平台在欧盟境内的服务,甚至强制平台退出欧盟市场。

二、欧盟调查X平台的核心细节解析

2026年1月26日欧盟启动的对X平台的新调查,并非欧盟首次针对X平台采取监管行动——2025年底,欧盟委员会曾以X平台在「蓝标认证」界面设计上对用户构成误导、广告库不透明、拒绝向研究者开放数据等为由,对其开出1.2亿欧元的罚单。

此次新调查则聚焦于X平台的AI推荐算法,是欧盟依据DSA对超大型在线平台开展的常态化监管,也是对AI技术在数字平台应用的针对性监管。

(一)监管主体

此次欧盟对X平台的调查,监管主体呈现「欧盟委员会主导、成员国监管机构协同」的双层架构,这一架构是根据DSA的规定建立的,确保监管工作的统一性和高效性。

核心监管主体是欧盟委员会。根据DSA的授权,欧盟委员会负责统筹协调欧盟范围内的数字服务监管工作,对超大型在线平台和超大型在线搜索引擎拥有直接的监管权和执法权。此次调查由欧盟委员会直接发起,负责制定调查方案、收集相关证据、评估X平台的合规情况,最终作出是否违规的认定,并决定采取何种处罚措施。

协同监管主体是各成员国的数字服务协调机构。DSA要求每个欧盟成员国设立专门的数字服务协调机构,负责配合欧盟委员会开展监管工作,处理本国范围内的数字服务投诉、调查等事务。此次调查中,作为X平台在欧盟设立地所在成员国的国家数字服务协调机构,爱尔兰数字服务协调机构Coimisiún na Meán已与欧盟委员会开展密切合作,参与此次调查的相关工作,包括协助收集证据、开展现场检查、对接X平台在爱尔兰的代表机构等。此外,其他欧盟成员国的数字服务协调机构也将根据欧盟委员会的要求,提供必要的支持,确保调查工作在欧盟范围内顺利推进。

(二)监管对象

此次调查的监管对象明确,核心是马斯克旗下的X平台,具体聚焦于X平台的两大核心要素:一是内置的人工智能模型Grok,二是基于Grok驱动的推荐算法。

从平台层面来看,X平台作为全球知名的社交平台,其月活跃用户远超DSA规定的4500万门槛,属于「超大型在线平台」,因此需要履行DSA规定的最严格的监管义务,这也是欧盟将其作为监管重点的重要原因之一。X平台自被马斯克收购后,进行了多次功能调整,其中就包括将AI模型Grok内置到平台中,用于驱动推荐算法、生成用户内容等,此次调查正是针对这一调整所带来的合规风险。

从具体功能来看,监管对象的核心是GrokAI模型及其驱动的推荐算法。Grok是由X平台提供商开发的人工智能工具,自2024年起,X平台已以多种方式将其部署到平台中,允许用户生成文本和图像,并为用户发布的内容提供上下文信息,同时用于优化平台的推荐算法,向用户推送个性化内容。欧盟此次调查的重点,就是评估Grok AI模型驱动的推荐算法是否存在传播非法内容的风险,包括伪造的露骨色情图像、儿童性虐待材料、反犹太内容等,以及X平台是否对Grok的应用进行了充分的风险评估,是否采取了有效的风险缓解措施。

此外,调查范围还涵盖了X平台的风险评估报告提交情况。欧盟委员会指出,通过查阅X平台依据DSA提交的风险评估报告,发现Grok AI模型并未在报告中体现,这意味着X平台可能未对Grok自身,或将其集成到X平台中可能给欧盟公民带来的风险进行评估,这也是此次调查的重要关注点之一。同时,欧盟委员会还扩大了此前对X平台推荐系统的调查范围,将评估其近期宣布改用「基于Grok的推荐系统」所产生的影响,判断该系统是否全面识别并缓解了DSA所界定的系统性风险。

(三)监管依据

此次欧盟调查X平台的核心监管依据,是2023年正式生效的《数字服务法》(DSA),具体而言,主要依据DSA中的以下几项关键条款,这些条款也明确了X平台的合规义务和欧盟的监管权限。

一是DSA中关于「超大型在线平台」监管义务的条款。根据DSA第34条、第35条的规定,超大型在线平台需定期开展系统性风险评估,识别平台服务可能带来的非法内容传播、用户权益受损等风险,并制定具体的风险缓解措施,编制专项风险评估报告,提交给欧盟委员会和各成员国监管机构。此次欧盟调查发现,X平台未在风险评估报告中体现Grok AI模型,可能违反了上述条款,未履行风险评估义务。

二是DSA中关于算法监管的条款。DSA第42条明确要求,超大型在线平台需对其使用的推荐算法进行规范,确保算法的透明度、可解释性和公平性,不得利用算法传播非法内容、误导用户或实施歧视性行为;同时,平台需采取有效措施,缓解算法带来的系统性风险。此次调查的核心就是评估X平台基于Grok的推荐算法是否符合上述要求,是否存在传播非法内容的风险,若存在相关问题,则违反了DSA的该条款。

三是DSA中关于非法内容处置的条款。DSA要求所有数字服务提供商建立健全非法内容审核与处置机制,及时处理用户投诉的非法内容,对于明显的非法内容,需在规定时间内删除或下架。欧盟委员会指出,在X平台上发现了反犹太内容、未经同意的深度伪造女性视频,以及涉及儿童性虐待的内容,而X平台可能未及时采取处置措施,这可能违反了DSA中关于非法内容处置的相关条款。

四是DSA中关于执法与处罚的条款。DSA第66条等相关条款明确了欧盟委员会的执法权限,包括发起调查、收集证据、采取临时措施、作出不合规决定、实施处罚等。根据这些条款,欧盟委员会有权对X平台启动正式调查,通过发出信息请求、开展访谈、实施现场检查等方式收集证据;若发现X平台存在违规行为,且未进行实质性整改,欧盟委员会有权采取临时措施,并作出不合规决定,对X平台处以最高相当于其全球年营业额6%的罚款。

此外,欧盟此次调查还参考了此前对X平台的监管记录——2025年底,欧盟曾因X平台存在欺骗性设计、广告透明度不足、研究人员数据访问不充分等问题,对其开出1.2亿欧元的罚单,此次调查也是对X平台合规情况的持续监管,确保其切实履行DSA规定的各项义务。

三、欧盟此次调查的合理性与公平性

欧盟此次依据《数字服务法》对X平台启动调查,是欧盟履行数字服务监管职责、保护用户权益、维护数字空间安全的重要举措,具有一定的合理性。但同时,在调查的针对性、监管的公平性、可能带来的负面影响等方面,也存在一些值得质疑的地方。因此市场普遍认为,若欧盟最终对X平台作出严厉的处罚决定,X平台可能会向欧盟法院提起诉讼,质疑欧盟调查的合法性和处罚决定的合理性,这将延长整个监管流程,也会成为全球数字监管领域的焦点事件。

(一)总体上契合监管目标,符合行业发展需求

欧盟此次调查的合理性,主要体现在以下几个方面,与DSA的立法精神和全球数字治理的趋势相契合。

一是契合DSA的立法目标,能够有效防范AI算法带来的风险。DSA的核心目标是规范数字服务提供商的行为,保护用户权益,维护数字空间的安全与公平。此次调查聚焦于X平台的Grok AI模型及其推荐算法,针对的是AI技术在数字平台应用中可能带来的非法内容传播风险,这与DSA的立法目标高度一致。随着AI技术的快速发展,AI算法带来的风险日益凸显,若不加强监管,可能会对用户权益和社会公共秩序造成严重危害。欧盟此次及时启动调查,能够有效防范这类风险,督促平台履行合规义务,规范AI算法的应用,符合DSA的立法精神。

二是符合全球数字治理的趋势,推动数字服务行业向合规化方向发展。当前,全球数字治理的核心趋势是加强对数字服务平台的监管,尤其是对AI技术、推荐算法的监管,保护用户权益,维护数字空间的安全。欧盟此次调查,是全球数字治理的重要实践,能够推动数字服务行业向合规化、规范化方向发展,为其他国家和地区的数字监管提供借鉴。例如,许多国家和地区正在制定或完善数字服务监管法规,欧盟的此次调查和DSA的实施经验,将为这些国家和地区提供参考,推动全球数字监管的规范化、统一化。

三是针对X平台的实际违规风险,具有明确的监管针对性。欧盟此次调查并非盲目发起,而是基于X平台存在的实际违规风险。欧盟委员会指出,在X平台上发现了反犹太内容、未经同意的深度伪造女性视频,以及涉及儿童性虐待的内容,而X平台未对Grok AI模型进行充分的风险评估,未在风险评估报告中体现Grok的相关情况,可能违反了DSA的相关规定。因此,此次调查针对的是X平台的实际违规行为和风险,具有明确的针对性,能够有效督促X平台整改,保护用户权益。

四是履行监管职责的必要举措,能够强化DSA的监管权威。X平台作为全球知名的超大型在线平台,其合规情况对整个数字服务行业具有重要的示范作用。欧盟此次对X平台启动调查,是履行监管职责的必要举措,能够向全球数字服务提供商传递明确的监管信号,督促所有平台严格遵守DSA的规定,强化DSA的监管权威,确保监管规则的有效实施。

(二)监管针对性、公平性与影响平衡存在争议

尽管欧盟此次调查具有一定的合理性,但在实践过程中,也存在一些值得质疑的地方,主要集中在以下几个方面,引发了行业内的广泛讨论。

一是调查的针对性存在偏差,可能过度聚焦于X平台,存在「选择性监管」的嫌疑。X平台作为马斯克旗下的企业,自被收购后,多次与欧盟监管机构发生摩擦,欧盟此前已对X平台开出1.2亿欧元的罚单,此次又启动新的调查,难免让人质疑欧盟的调查存在「选择性监管」的嫌疑——即过度聚焦于X平台,而对其他类似平台的同类违规行为,监管力度不足。例如,Meta旗下的Facebook、Instagram,谷歌旗下的YouTube等平台,也内置了AI模型,其推荐算法也可能存在传播非法内容的风险,但欧盟此次并未针对这些平台启动类似的调查,这引发了关于监管公平性的质疑。此外,X平台的Grok AI模型上线时间相对较短,其带来的风险尚未完全显现,欧盟此时启动调查,可能存在过度监管的嫌疑,不利于平台的创新发展。

二是监管标准过于严格,可能抑制AI技术的创新与发展。DSA对超大型在线平台的监管要求极为严格,尤其是对AI算法的监管,要求平台公开算法逻辑、开展风险评估、加强内容审核等。这些监管要求虽然能够有效防范风险,但也可能抑制AI技术的创新与发展。AI技术的发展需要一定的试错空间,而过于严格的监管要求,可能会让平台不敢大胆开展AI技术的研发和应用,担心因违规而面临严厉处罚。例如,平台可能会减少对生成式AI的投入,限制AI模型的功能,这将不利于AI技术的创新与进步,也可能影响数字服务行业的发展活力。

三是监管的公平性有待考量,可能存在「地域保护」的倾向。DSA的监管范围覆盖所有在欧盟境内提供数字服务的平台,但在实际执法过程中,欧盟可能会对欧盟本土平台和非欧盟本土平台采取不同的监管标准,存在「地域保护」的倾向。X平台的总部位于美国,属于非欧盟本土平台,而Meta、谷歌等平台虽然总部也位于美国,但在欧盟境内拥有庞大的业务布局和更多的合规投入,可能会受到欧盟监管机构的「特殊对待」;而欧盟本土的数字服务平台,可能会享受更宽松的监管环境,这违背了DSA「统一监管、公平对待」的原则,也不利于全球数字服务行业的公平竞争。

四是可能带来的负面影响未得到充分考量,影响用户体验和行业发展。如前所述,此次调查可能会导致平台弱化个性化推荐功能、限制AI功能、提高服务费用等,影响用户的使用体验和权益;同时,过高的合规成本可能会导致中小型平台退出欧盟市场,推动行业集中度提升,形成垄断格局,不利于行业的公平竞争和创新发展。但欧盟在启动调查时,似乎并未充分考量这些潜在的负面影响,也未制定相应的应对措施,可能会导致监管效果与预期不符,甚至产生相反的效果。

五是调查的程序透明度不足,可能影响调查结果的公正性。此次欧盟启动对X平台的调查,虽然明确了调查的重点和依据,但调查的具体程序、证据收集的方式、评估的标准等,并未向公众和X平台充分公开,这可能影响调查结果的公正性。X平台作为被调查对象,有权了解调查的具体情况,获得充分的辩护机会,但欧盟此次调查的程序透明度不足,可能会导致X平台无法充分行使自身的权利,影响调查结果的公正性和合理性。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接