
Voyant les opportunités d'amélioration grâce à l'IA, les entreprises ont mis en œuvre cette technologie pour, par exemple , disposer d'un service client et d'un support technique automatisés, ainsi que pour traduire des documents et générer du contenu Web . Les tâches dans lesquelles il y a un flux de données élevé et un grand soin doivent être prises.
Risques liés à l'utilisation de ChatGPT au travail
- Sécurité des informations
L’un des risques les plus importants est la sécurité des informations. ChatGPT, comme d'autres outils d'IA, collecte et enregistre tout ce que vous y saisissez, en utilisant ces données pour améliorer ses réponses futures.
Cela signifie que toute information sensible partagée, intentionnellement ou accidentellement, pourrait être exposée. Par exemple, si un développeur demande au chatbot de déboguer du code ou si des données personnelles d'employés sont transmises, ces informations pourraient finir par être exposées à d'autres utilisateurs.

- Manque de transparence dans les résultats de la formation
Un autre risque majeur est le manque de transparence dans les résultats des tests de formation. ChatGPT peut répondre automatiquement et rapidement aux questions lors des évaluations d'emploi. Si les employés utilisent l’outil pour « sauter » une formation importante et réussir des évaluations sans réellement acquérir les connaissances, cela peut avoir des conséquences négatives pour l’organisation.
- Évaluation douteuse des compétences professionnelles
En relation avec ce qui précède, l’évaluation des compétences professionnelles peut devenir douteuse. ChatGPT peut fournir des instructions étape par étape pour effectuer des tâches spécifiques dans des logiciels tels qu'Excel, Salesforce ou Google Analytics.
Si les salariés parviennent à obtenir des promotions basées sur des compétences acquises artificiellement grâce à l’IA, l’entreprise court le risque de dépendre d’un personnel dont les véritables performances ne correspondent pas à leurs qualifications personnelles.
- Intégrité de l'examen de certification
Les participants à l'évaluation de certification peuvent utiliser ChatGPT pour répondre ou même résoudre des problèmes complexes. Si les entreprises délivrent des certifications sans vérifier l’authenticité des réponses, cela peut sérieusement nuire à la réputation des programmes de certification et, par conséquent, à la perception de la marque par les clients et la communauté.

- Évaluation des nouveaux candidats
Dans les processus de recrutement, les candidats utilisent de plus en plus des outils tels que ChatGPT pour réussir des évaluations qui nécessitent généralement une expérience approfondie. Cela représente un risque important, car l’embauche de personnes dont les compétences et les connaissances ont été surévaluées par l’utilisation de l’IA pourrait s’avérer coûteuse à long terme pour l’entreprise.
Comment éviter ces risques et continuer à utiliser ChatGPT
Pour éviter ces problèmes, les entreprises doivent mettre en œuvre des pratiques de gouvernance de l'IA appropriées et fixer des limites claires à l'utilisation de ChatGPT. Voici quelques conseils et stratégies :
- Demander des réponses basées sur des cas spécifiques
Une façon de rendre ChatGPT moins efficace dans les évaluations consiste à demander des réponses à des questions basées sur des cas actuels spécifiques à l'entreprise. L’IA n’a pas accès à des ressources spécifiques et récentes dans l’organisation, ce qui limite sa capacité à générer des réponses précises.

- Utiliser un logiciel de blocage de navigateur
Bien que limitée, l’utilisation de logiciels bloquant l’accès à certaines applications lors des évaluations peut s’avérer utile. Cependant, il est important de s’assurer que les candidats n’ont pas accès à des appareils supplémentaires tels que des téléphones portables.
- Surveillance en ligne automatisée
L’utilisation d’un logiciel de surveillance en ligne peut être une solution efficace. Ce type de logiciel restreint l'accès aux sites Web, aux applications et aux extensions d'IA pendant les évaluations, surveille la session à l'aide de la reconnaissance faciale et de l'enregistrement d'écran, désactive les raccourcis clavier courants et analyse la salle à la recherche d'autres appareils non autorisés.
En outre, il publie des rapports détaillés qui permettent aux évaluateurs de prendre des mesures rapides et appropriées si une utilisation abusive de l’IA est détectée.
Nouveau