Les travailleurs qui utilisent l’IA comme assistant personnel sont de plus en plus nombreux. Entre une optimisation de la productivité et l’obtention de réponses plus rapide, ces travailleurs identifient clairement les avantages et les applications de l’intelligence artificielle. Pourtant, ils n’informent généralement pas leurs supérieurs hiérarchiques de cette utilisation. Cette omission soulève des questions éthiques et de confidentialité, liée à une violation potentielle des politiques de l'entreprise et à d’éventuels problèmes de sécurité des données.
Reformulation des e-mails, traduction de textes, synthèse de rapports… ChatGPT est l’un des outils d’intelligence artificielle générative utilisés par les salariés. En 2023, France Info a interrogé certains d’entre eux.
Découvrons ces interviews et les avantages et inconvénients de l’intelligence artificielle mis en avant par ces salariés dans leur entreprise.
Les noms des personnes interviewées ont été modifiés pour protéger leur anonymat.
Ainsi, Geneviève se sert de ChatGPT pour la réécriture de ces textes, parfois dans un anglais plus soutenu. Cela ne l’empêche pas de contrôler ces réécritures et de les peaufiner elle-même par la suite. Convaincue de l’utilité de l’intelligence artificielle dans ce cadre, elle tente également d’y convertir ses collègues.
Ainsi, ces trois salariés ont une application de l’intelligence artificielle assez similaire : que ça soit pour trouver une information plus rapidement, pour résumer certains textes ou pour les reformuler, ils considèrent l’économie de temps comme un avantage de l’intelligence artificielle, grâce auquel ils peuvent se concentrer sur des tâches à plus haute valeur ajoutée.
Comme ces trois salariés, ce sont plus de 206 millions de personnes qui ont visité le site de ChatGPT en avril 2023, selon l'entreprise britannique d'analyse de trafic Similarweb. Cinq jours seulement après son lancement en novembre 2022, l’application accueillait déjà plus d’un million d’utilisateurs.
Selon Yann Ferguson, sociologue à l'Institut catholique d'arts et métiers de Toulouse et responsable scientifique du LaborIA, ces applications de l’intelligence artificielle peuvent s’apparenter à du « bricolage ». Il explique qu’en s’appropriant cet outil afin de faire ses propres recherches, « c'est le travailleur qui libère les usages, grâce à sa démarche. Il cherche, bricole et fait ses propres découvertes ». Ainsi, dans ce cadre, l’intelligence artificielle pourrait développer la curiosité du travailleur à en connaître davantage sur divers sujets.
Selon une étude menée cette année par Ifop-Talan, 68% des Français qui utilisent les IA génératives en entreprises le cachent à leur supérieur hiérarchique.
Or, l’usage de l’IA dans le dos des employeurs représente l’un des inconvénients de l’intelligence artificielle : comporte des risques en matière de cybersécurité et de fuite de données.
Par exemple, dans l’optique de corriger des erreurs de code informatique, des employés de Samsung ont divulgué des informations confidentielles à ChatGPT. En réponse, l’entreprise en a interdit l’usage à tous ses employés.
Pour contrer ce risque de fuite, Yann Ferguson préconiserait de déployer des solutions d’intelligence artificielle générative directement sur les serveurs internes des entreprises, pour « garantir la précision et la sécurisation des données ».
En l’absence d’un cadre légal clair, certaines organisations et institutions ont pris la décision d’interdire l’utilisation de l’intelligence artificielle à leurs agents. C’est par exemple le cas de la mairie de Montpellier : « On souhaite évidemment l'utiliser, mais avant, on veut une notice d'utilisation », explique Manu Reynaud, adjoint au maire de la ville.
Ce cadre légal est toutefois en cours de création. Le 14 juin dernier, Le Parlement européen a donné son feu vert pour conduire un projet de régulation de l'intelligence artificielle visant à en limiter les risques. Ce projet porte le nom de l'Artificial Intelligence Act (IA Act). La balle est désormais dans le camp des Etats-membres, qui doivent négocier pour en finaliser le texte.
Il est à noter que ce projet est en cours depuis 2 ans, mais que la complexité et la diversité du sujet de l’intelligence artificielle expliquent en partie le temps nécessaire à sa mise en place. Même si le texte pourrait être finalisé d'ici la fin de l'année, une entrée en application n’est pas prévue avant 2026.
De façon générale, ce cadre légal prévoit toutefois que plus l'IA est considérée comme risquée, plus la régulation qui s'appliquera sera stricte.
Cela signifie que les éditeurs des applications d’intelligence artificielle génératives devront :
Or, Selon Yann Ferguson, ChatGPT ne respecte actuellement « aucune de ces exigences européennes ».
En attendant un réel cadre légal et la concrétisation du projet AI Act, l'UE et les Etats-Unis vont publier un « code de conduite » commun sur l'intelligence artificielle, s'appliquant sur la base du volontariat.
Selon Jonathan Narboni, chercheur en informatique théorique à l'université Jagellon de Cracovie, ChatGPT possède des limites : « ChatGPT est incapable de produire des preuves mathématiques. Il affirme des choses avec beaucoup d'aplomb, mais avec des incohérences… Il fait baratinage d'école de commerce ».
En effet, selon une étude de l'université britannique d'Oxford dévoilée en mai 2023, ChatGPT ne donnerait des bonnes réponses que dans 58% des cas.
Comme l’explique Yann Ferguson : « Ce système n'est qu'un prédicteur de mots, il les assemble. Il ne donne pas une réponse, mais ce qui pourrait ressembler à la réponse ».
Toujours selon ce sociologue, l’intelligence artificielle pourrait mener à différents types d’employés :
Les salariés interviewés par France Info rentrent dans les deux premières catégories. Comme l’énonce Geneviève : « J'ai essayé de faire des trucs créatifs, car on doit créer des campagnes de communication qui attirent l'attention. Mais je n'ai pas l'impression que ChatGPT va me sauver la vie ».
Selon les recherches de l'OCDE publiées en 2018, 14% des emplois risqueraient d'être automatisés, et 32% seraient susceptibles d'être profondément modifiés. Selon Yann Ferguson, il faut être particulièrement attentif au risque de polarisation du monde du travail « entre une élite très bien rémunérée et une masse d'emplois inintéressants, moins bien rémunérés voire 'ubérisés' ».
Selon Ifop-Talan, 72% des Français pensent ne pas encore avoir les connaissances suffisantes pour utiliser les IA génératives.
« ChatGPT nous permet d'apprendre à conduire. Mais pour l'instant, on essaie de rentrer dans la voiture sans avoir appris le code de la route », explique Yann Ferguson.
Dès lors, comment apprendre à maîtriser et utiliser ces nouvelles technologies sans compromettre son entreprise ?
Selon lui, divers éléments sont nécessaires : un mix entre pratique et théories, des formations et, surtout, une remise en question constante : « Ai-je les compétences pour vérifier ce que me dit ChatGPT ? Suis-je prêt à assumer les responsabilités en cas d'erreur ? Si la réponse est non, il ne faut pas y aller ».
Dimitri, acheteur dans le BTP, a créé un groupe de réflexion sur l'intelligence artificielle avec différents métiers de son entreprise. Soucieux d’être transparent avec celle-ci, il espère que son employeur permettra l’utilisation de cette technologie et en financera l’usage.
Pour Pierre, acheteur dans l'alimentaire, « qu'on le veuille ou non, notre avenir sera autour de l'IA, et on sera tous obligés de s'en servir ». Selon lui, « il ne faut pas voir l'IA comme un ennemi du travail. Ça reste un robot, il faut juste apprendre à s'en servir, au même titre qu'internet ».
Vous aimeriez en savoir plus sur les avantages et inconvénients de l’intelligence artificielle ?
En découvrir les applications dans les entreprises ?
Participez à la formation « AI-VOLUTION : Application de l’intelligence artificielle en entreprise » !
Sources : https://www.francetvinfo.fr/sciences/high-tech/temoignages-il-ne-faut-pas-voir-l-intelligence-artificielle-comme-un-ennemi-ces-travailleurs-qui-utilisent-chatgpt-comme-assistant-personnel-a-l-insu-de-leur-employeur_5871377.html - https://www.rtl.fr/actu/sciences-tech/intelligence-artificielle-les-3-propositions-de-l-union-europeenne-pour-reguler-chatgpt-et-les-autres-systemes-7900274721
These Stories on Digital Transformation, Innovation & Change
Copyright © 2023 HEC Liège Executive Education | Conditions Générales de Vente des Formations Inter-Entreprises | Aides à la Formation | Protection de la Vie Privée
Developed by @Stratenet
Dites-nous ce que vous en pensez !