Travail, management, fraude… Les multiples risques de l’intelligence artificielle pour les entreprises

Economie
The Conversation

La Chine a récemment décidé d’encadrer l’utilisation de ChatGPT tandis que l’Italie souhaite interdire l’outil. Wikimedia commons, CC BY-SA

Travail, management, fraude… Les multiples risques de l’intelligence artificielle pour les entreprises

La Chine a récemment décidé d’encadrer l’utilisation de ChatGPT tandis que l’Italie souhaite interdire l’outil. Wikimedia commons, CC BY-SA
Vipin Mogha, ESCE International Business School et Arvind Ashta, Burgundy School of Business

L’intelligence artificielle (IA) semble être à la fois source d’opportunités et de menaces pour le futur. Du côté des opportunités, l’homme a toujours cherché à automatiser les tâches physiquement pénibles et/ou répétitives. L’individu est ainsi plus productif et est capable d’utiliser sa propre capacité intellectuelle pour d’autres activités plus stimulantes. L’IA permettra d’aller plus loin dans ce processus. Du côté des menaces, on retrouve globalement la peur de l’inconnu et toutes les insécurités qu’il génère.

L’intelligence artificielle (IA) fait référence à des machines conçues pour effectuer des tâches similaires à l’intelligence humaine, interpréter les données externes, apprendre de ces données externes et utiliser cet apprentissage à s’adapter aux tâches pour obtenir des résultats spécifiques et personnalisés.

Récemment, le focus médiatique autour de ChatGPT, attise les hardiesses et les peurs, si bien que des pays comme la Chine ou l’Italie ont récemment décidé de limiter voire d’en interdire l’usage. Des voix s’élèvent également en France où ChatGPT a été interdit dans un certain nombre d’établissements universitaires et où des élus réclament son interdiction au parlement.

Cet outil donne une idée de la puissance potentielle de l’IA. En effet, avant ChatGPT, l’automatisation était essentiellement liée à la robotisation des tâches manuelles. ChatGPT pourrait en revanche remplacer l’intelligence humaine. Une étape importante semble donc franchie.

Risques multiples

Dans ce contexte, nous avons mené une recherche pour identifier les différents risques liés à l’essor de l’IA. Ils sont de plusieurs types : les risques managériaux, risques opérationnels, risques au sein du marché de travail, risques d’autres clivages sociaux et les risques de concurrence mondiale.

Les risques managériaux principaux sont liés à la responsabilité humaine dans la décision et de la dépendance humaine aux outils d’analyse de données. Le manager prend des décisions en se basant sur les informations générées par les outils d’IA. Qui est responsable si les résultats donnés par l’outil numérique sont faux et que le manager en conséquence a pris une mauvaise décision ayant des implications lourdes ? Un exemple peut être les études de marchés développés par ChatGPT avec des recommandations plausibles mais basées sur de mauvaises informations et sur lesquelles s’appuieraient des décisions managériales.

Les risques opérationnels sont eux essentiellement liés à la sécurité et à la fraude. D’un côté, l’IA pourrait aider à améliorer la sécurité des transactions financières, mais il peut aussi augmenter le pouvoir de nuisance des fraudeurs. En effet, cette numérisation extrême constitue un terrain propice aux cyberattaques. Un outil d’IA peut par exemple imiter la voix d’un tiers de confiance et obtenir ainsi des informations confidentielles. ChatGPT pourrait même étudier et permettre de briser les pare-feux des entreprises.

Les risques au sein du marché de travail sont liés au possible remplacement de certains métiers par l’IA. Jusqu’à récemment, les craintes étaient liées aux métiers des cols bleus mais désormais ces craintes se portent sur les cols blancs. Par exemple, les textes écrits dans n’importe quel domaine, des problèmes complexes de mathématiques, des programmes informatiques peuvent à présent être effectués par ChatGPT, bien qu’une intervention humaine soit souvent requise pour finaliser les résultats. Ces compétences pourraient donc remplacer beaucoup de métiers à terme. Pour qu’elle fonctionne mieux, l’IA doit pouvoir discerner les données produites par des experts fiables de celles produites par d’autres.


Chaque lundi, que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez dans votre boîte mail les clés de la recherche pour la vie professionnelle et les conseils de nos experts dans notre newsletter thématique « Entreprise(s) ».

Abonnez-vous dès aujourd’hui


Au-delà de ces problématiques qui concernent directement les entreprises, d’autres risques apparaissent, tels que ceux qui concernent les clivages sociaux. Ceux-ci peuvent concerner les discriminations de genres ou l’accentuation des inégalités en termes de richesses. D’une part, les entreprises du numérique sont accusées de préjugés sexistes dans leurs algorithmes de recherche. En effet, si un outil génératif ne répond pas à un besoin par un souci d’être politiquement correcte, il est possible de s’alimenter sur des outils concurrents qui autoriseraient ces biais. D’autre part, les personnes ayant les moyens financiers pourraient se former aux nouveaux outils de l’IA et les moins favorisés seraient déclassés par ces changements.

Les risques de concurrence internationale font référence au poids des entreprises mondialisées du numérique ayant une base d’utilisateurs très importante, comme les Gafam américains ou les chinoises Alibaba ou ByteDance. Ces entreprises de marché capitalistique donneraient implicitement au gouvernement de leur pays d’origine un pouvoir de domination géopolitique. Pour l’instant, la majorité des outils disponibles sur le marché sont par des entreprises américaines, ce qui renforce l’hégémonie des États-Unis. La Chine ne s’y trompe pas : la société Baidu a développé Ernie Bot, mais il n’est pas encore efficace car il doit prendre en compte la censure des informations par le gouvernent chinois. Et Alibaba prévoit aussi d’avoir l’outil concurrençant ChaptGPT.

Le rôle décisif des pouvoirs publics

Les risques liés à l’IA sont multiples. Sont-ils pour autant source d’inéluctables problèmes ? La réponse à cette question dépend de l’utilisation qui sera faite de l’IA. La réponse serait affirmative si l’IA est utilisée à des fins de surveillance, de fraude sur les données, voire de destruction volontaire d’emplois par des entrepreneurs ou si elle perpétue des biais sociaux. La réponse sera négative, si le développement et l’utilisation de ces outils est encadré par la loi, et lorsque ces outils permettront l’amélioration des conditions de travail ou la fourniture de services aux citoyens là où il n’y a en avait pas.

Vipin Mogha, Enseignant-Chercheur en Finance et Entrepreneuriat, ESCE International Business School et Arvind Ashta, Professor Finance and Control, Burgundy School of Business

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Facebook Pin It

Articles en Relation

Cyberattaques dans les hôpitaux, universités, administrations… Comment mieux rés... Depuis mi-2021, une cybermenace sur 4 dans le monde environ concerne directement un organisme public. Pixabay, CC BY-SA Cyberattaques dans les ...
Autoriser la mise sur le marché de la viande cultivée aux États-Unis, une révolu... Ces saucisses de viande cultivée vous mettent-elles en appétit ? New Age Meats , CC BY-SA Autoriser la mise sur le marché de la viande cultivée...

ACTUALITÉS SHOPPING IZIVA