当前位置: 首页> 科技资讯 >欧盟或将对Meta开罚单,指控其在用户数据处理上误导行为

欧盟或将对Meta开罚单,指控其在用户数据处理上误导行为

时间:2024-08-24 03:09:56

编辑:波波资源网

阅读:4

近日消息,欧盟近期向Meta公司发出通告,指责其Facebook及Instagram平台采用的“付费或同意”商业模式可能误导用户并引发混淆,违反了消费者保护法规。Meta被要求在2024年9月1日前对这一模式进行整改,否则可能面临罚款,这是欧盟消费者保护合作网络(CPC)的明确指令。

欧盟或将对Meta开罚单,指控其在用户数据处理上误导行为

Meta 去年推出的“付费或同意”模式给用户提供两种选择:每月支付最高 12.99 欧元(当前约 103 元人民币)来使用无广告的 Facebook 和 Instagram;或同意该公司收集和使用个人数据以投放个性化广告。欧盟方面认为,这种模式侵犯了用户隐私。

消费者保护组织的投诉引发了欧盟的调查。调查结果显示,Meta 在解释付费和“免费”版 Facebook 和 Instagram 的区别时使用了模糊不清的语言,迫使用户在没有足够时间考虑的情况下做出选择。此外,欧盟认为,将 Facebook 和 Instagram 的无广告版本称为“免费”具有误导性,因为用户仍然需要同意使用其数据进行定向广告。

欧盟司法委员迪迪埃・雷德斯表示,消费者不应该被误导认为付费后就不会看到广告,也不应该被误导认为平台是免费的,而实际上公司正在利用他们的个人数据牟利。他强调,公司必须透明地告知用户如何使用其数据。

Meta 发言人对此回应称,订阅模式作为广告的替代方案在许多行业都是成熟的商业模式,无广告订阅符合欧洲最高法院的裁决,并坚称公司遵守欧洲法规。

欧盟指控 Meta 违反了《不公平商业行为指令》和《不公平合同条款指令》。如果罪名成立,Meta 可能面临高达其欧盟地区年收入 4% 的罚款。

Meta专利新动向:挑战苹果Vision Pro,EyeSight技术或将再现

近日消息,Meta公司近期提交了一项专利申请,目标是在其虚拟现实头盔中实现类似苹果Vision Pro的“EyeSight”技术,此举意在提升其VR设备的交互性和用户体验。

Meta专利新动向:挑战苹果Vision Pro,EyeSight技术或将再现

对此 9to5mac 称,虽然 Meta 密切关注 Vision Pro 并试图从中汲取经验以改进自家 Quest 头显并不令人意外,但令人惊讶的是,他们竟选择复制一个反响不佳、且苹果可能即将放弃的功能。

Vision Pro 的“EyeSight”功能会通过扫描用户面部,在外部显示屏上生成虚拟的眼睛图像。苹果在首次发布 Vision Pro 时曾大力宣传该功能,称其解决了 VR 头显的一大难题 —— 社交隔离。然而,该功能并未获得好评,许多人指出实际效果与苹果的宣传图片相差甚远,甚至有评论称该功能毫无意义。有消息称,苹果将在推出更便宜的 Apple Vision 机型时取消该功能。

据 Patently Apple 报道,Meta 的专利申请显示,他们似乎打算完全复制这一功能。该专利的正式名称为“沉浸式现实头显中的嵌入式传感器,可实现社交存在”。该专利还证实 Meta 正在考虑重新设计 Quest 头显来支持此功能。为了与苹果的 Eyesight 区分开来,Meta 指出,面部界面中的一些传感器可能包括健康传感器。

由于专利法保护的是实施方法而非创意本身,因此企业可以复制创意,甚至为自己的实施方法申请专利。

Meta推创新AI模型:Imagine Yourself,无需特定微调,个性化图像生成新纪元

近日,Meta公司近期在个性化图像生成领域迈出重要一步,推出名为“Imagine Yourself”的创新AI模型。这一模型致力于克服传统个性化图像生成中效率低与扩展性差的问题,它不再依赖于针对每位用户的繁琐调整。

Meta推创新AI模型:Imagine Yourself,无需特定微调,个性化图像生成新纪元

传统个性化图像生成方法挑战

目前的个性化图像生成方法通常依赖于为每个用户调整模型,这种方法效率低下,而且缺乏通用性。虽然较新的方法试图在不进行调整的情况下实现个性化,但它们往往过度拟合,导致复制粘贴效应。

Imagine Yourself 创新

Imagine Yourself 模型不需要针对特定用户微调,通过单一模式能够满足不同用户的需求。

该模型解决了现有方法的不足之处,如倾向于毫无变化地复制参考图像,从而为更通用、更方便用户的图像生成流程铺平了道路。

Imagine Yourself 在保存身份、视觉质量和及时对齐等关键领域表现出色,大大优于之前的模型。

该模型的主要组成部分包括:

生成合成配对数据以鼓励多样性;

整合了三个文本编码器和一个可训练视觉编码器的完全并行注意力架构;

以及一个从粗到细的多阶段微调过程

这些创新技术使该模型能够生成高质量、多样化的图像,同时保持强大的身份保护和文本对齐功能。

Imagine Yourself 使用可训练的 CLIP 补丁编码器提取身份信息,并通过并行交叉注意模块将其与文本提示整合在一起,准确保存身份信息并对复杂的提示做出反应。

该模型使用低阶适配器(LoRA)仅对架构的特定部分进行微调,从而保持较高的视觉质量。

Imagine Yourself 的一个突出功能是生成合成配对(SynPairs)数据。通过创建包含表情、姿势和光照变化的高质量配对数据,该模型可以更有效地学习并产生多样化的输出结果。

值得注意的是,在处理复杂的提示词方面,与最先进的模型相比,它在文本对齐方面实现了 +27.8% 的显著改进。

研究人员使用一组 51 种不同身份和 65 个提示对 Imagine Yourself  进行了定量评估,生成了 3315 幅图像供人类评估。

该模型与最先进的(SOTA)adapter-based 模型和 control-based 模型进行了比对,重点关注视觉吸引力、身份保持和提示对齐等指标。

人工注释根据身份相似性、及时对齐和视觉吸引力对生成的图像进行评分。与 adapter-based 模型相比,Imagine Yourself 在提示对齐方面有了 45.1% 的显著提高,与基于控制的模型相比有了 30.8% 的提高,再次证明了它的优越性。

Imagine Yourself 模型是个性化图像生成领域的一大进步。该模型无需针对特定对象进行调整,并引入了合成配对数据生成和并行注意力架构等创新组件,从而解决了以往方法所面临的关键挑战。

本文导航
最新上架

联系方式:boosccom@163.com

版权所有2023 boosc.com AII版权所有备案号 渝ICP备20008086号-38 渝公网安备50010702506211号