Le but de cette entreprise américaine est de créer des expériences personnalisées et hautement interactives, comme suggérer des activités lors de la planification d'un voyage dans des discussions de groupe ou faciliter la création de matériel pédagogique adapté à différents styles d'apprentissage.
Cependant, le conglomérat reconnaît également les défis inhérents à l'application de l'IA générative , notamment des réponses inexactes ou la potentielle réaffirmation de stéréotypes basés sur les données de formation.
Comment Meta donne la priorité à la sécurité de l'IA
Dans le but de renforcer la sécurité et la responsabilité dans l'utilisation de l'intelligence artificielle (IA), Meta a procédé à une évaluation et à une amélioration par l'intermédiaire de spécialistes , à une formation aux directives de sécurité et de responsabilité et au développement de technologies pour détecter les contenus qui violent les politiques de la plateforme.
De même, il s'est engagé à protéger la vie privée des utilisateurs en n'utilisant pas de messages privés pour entraîner ses systèmes d'IA et pour garantir l'efficacité de ces initiatives, il a collaboré à des exercices de red teaming, consacrant des milliers d'heures à l'identification et à la correction des vulnérabilités.
Concernant le raffinement des modèles, cela La pratique a inclus des systèmes de formation pour effectuer des tâches spécifiques, telles que la génération d'images de haute qualité avec des instructions pouvant augmenter la probabilité d'obtenir des réponses utiles. De plus, ils ont été formés pour offrir des ressources bénéficiant du soutien d’experts en sécurité.
Quels sont les outils disponibles pour lutter contre la propagation de la désinformation grâce à l'IA ?
Meta a également ajouté des outils pour améliorer la compréhension et la transparence dans l'utilisation de son IA générative avec l'ajout de cartes système et de marqueurs visuels dans les images.
Ces innovations fournissent des outils permettant aux utilisateurs de comprendre comment interagir avec les nouvelles fonctions offertes par cette technologie. Leur objectif est donc d'éduquer afin qu'il soit beaucoup plus facile d'identifier le contenu généré par l'IA pour éviter la désinformation.
En plus d'inclure des démonstrations interactives, les cartes cherchent à clarifier pour les utilisateurs comment leurs commandes peuvent modifier les résultats obtenus par ces modèles . Des marqueurs ont également été introduits sur les images générées ou modifiées par les outils d'IA de Meta pour garantir que les utilisateurs sachent qu'elles ont été créées artificiellement.
Meta se concentre également sur la lutte contre les contenus préjudiciables en améliorant des technologies telles que Few-Shot Learner, qui permet une réponse rapide et efficace aux nouveaux types de publications nuisibles.
Des modèles de langage étendus pour améliorer la conformité
De plus, la société a commencé à tester des modèles de langage étendus (LLM) dans le but d'améliorer la conformité avec les normes de sa communauté. Les premiers tests suggèrent que ces modèles pourraient surpasser ou au moins compléter les outils existants, montrant ainsi un avenir prometteur pour la mise en œuvre de politiques utilisant l’IA générative.
D'autre part, Meta plaide pour l'établissement de normes communes dans l'industrie pour étiqueter le contenu généré par l'IA, en collaboration avec d'autres entreprises et organisations telles que le Partenariat sur l'IA pour atteindre cet objectif.
Bien que l’absence de normes uniformes soit une préoccupation croissante à mesure que l’intelligence artificielle progresse et que son application devient un outil plus courant dans divers secteurs.