
Dans l'Union Européenne, la société a annoncé qu'elle ne lancera pas ses prochains modèles d'intelligence artificielle multimodale en raison de l'incertitude de l'environnement réglementaire. L'un des modèles concernés est Llama multimodal, conçu pour traiter des données sous différents formats tels que la vidéo, l'audio, les images et le texte.
Meta a expliqué que cette décision était liée aux nouvelles régulations qui affectent l'utilisation de l'intelligence artificielle et des données des utilisateurs dans la région, selon des déclarations à Axios. La société a qualifié la situation de l'environnement réglementaire européen comme ayant une “nature imprévisible”.
Au Brésil, l'Autorité Nationale de Protection des Données (ANPD) a également imposé des restrictions au projet d'entraînement d'IA de Meta depuis début juillet 2024. Cette mesure inclut l'invalidation de la nouvelle politique de confidentialité de Meta qui permettait l'utilisation de données personnelles pour entraîner des systèmes d'IA générative.

La ANPD justifie sa décision par des préoccupations concernant un éventuel dommage aux droits fondamentaux des titulaires de données, imposant des amendes en cas de non-conformité. Meta devra ajuster sa politique de confidentialité pour exclure le traitement de données personnelles à des fins d'entraînement d'IA et émettre une déclaration officielle confirmant la suspension de ce traitement.
Meta a exprimé sa déception face à ces décisions, arguant qu'elles représentent un obstacle à l'innovation et retarderont les bénéfices de l'IA pour les citoyens dans l'UE et au Brésil.
La société assure que son approche est conforme aux lois sur la confidentialité et aux réglementations au Brésil, soulignant sa transparence par rapport à d'autres acteurs de l'industrie qui ont utilisé du contenu public pour entraîner des modèles d'IA.
Plaintes de confidentialité reçues par Meta pour son intelligence artificielle
Le groupe d'activistes Centre Européen des Droits Numériques (NOYB) a déposé plusieurs plaintes contre Meta lorsqu'elle a annoncé qu'elle allait entraîner son modèle d'intelligence artificielle avec des données des utilisateurs sur Facebook et Instagram dans l'Union Européenne.

L'organisation non gouvernementale autrichienne a exprimé des inquiétudes concernant l'intention de Meta d'utiliser des données pour développer une technologie d'intelligence artificielle, car ses caractéristiques n'étaient pas encore complètement définies.
De plus, ils ont souligné que la société n'avait pas précisé à quels tiers elle avait l'intention de fournir ces informations sur les utilisateurs.
Lorsque Meta a annoncé que ce projet en particulier était susceptible d'être interrompu en Europe, NOYB a déclaré : “Meta a toutes les options pour mettre en œuvre une IA basée sur un consentement valide, elle choisit simplement de ne pas le faire”.

Au Brésil, l'Autorité de Protection des Données du pays a également noté que les utilisateurs faisaient face à des barrières excessives et injustifiées pour obtenir des informations et exercer leur droit de s'opposer au traitement de leurs données personnelles.
Cette entité brésilienne a déterminé que le projet de Meta représentait un “risque de dommages graves et difficiles à remédier pour les utilisateurs”.
L'entité a exprimé au début juillet 2024 : “Une mesure préventive déterminant la suspension immédiate, au Brésil, de la nouvelle politique de confidentialité de l'entreprise Meta, qui autorisait l'utilisation de données personnelles publiées sur ses plateformes à des fins d'entraînement de systèmes d'intelligence artificielle”.

De plus, Meta est soumise à une amende quotidienne de R$ 50.000,00 (cinquante mille reais) en cas de non-respect de la mesure préventive émise.
Dans une déclaration à l'Associated Press faite lors de l'émission de la suspension préventive, Meta a affirmé que sa politique était conforme aux lois et régulations de confidentialité au Brésil.
Ils ont également exprimé que la décision représente un recul pour l'innovation, la concurrence dans le développement de l'intelligence artificielle, et engendre des délais supplémentaires pour apporter les bénéfices de l'IA à la population au Brésil.
Nouveau