fr
Technologies

Intelligence Artificielle et moralité dans l’entreprises

Alors qu’elles prétendent respecter les principes moraux de leurs activités, les entreprises œuvrant dans l’IA ne le sont pas du tout dans leurs manières d’opérer.

Des entreprises d’IA non éthiques

Selon le Boston Consulting Group, moins de la moitié seulement des entreprises qui se sont investies dans l’Intelligence artificielle l’ont fait de manière responsable. Des soucis apparaissent cependant sur leur manière d’opérer. C’est une des raisons pour la Commission européenne de réguler les usages de l’IA par le biais de son projet de règlement.

Elles sont 260 à avoir adopté les technologies de prédiction et de reconnaissance d’image, ce, dans le respect des principes moraux. Elles l’ont fait de manière juste, sans autre but que d’accroître les capacités humaines sans s’y substituer.

Il est vrai que la majorité de ces entreprises affirment être prêtes à respecter les principes préconisés par le texte de l’exécutif européen. Cependant, la vérité est que leurs dirigeants se croient être plus éthiques qu’ils ne le sont vraiment. Près des 56 % de ces structures pensent être plus matures qu’elles ne le sont pas en matière d’Intelligence artificielle.

Qu’en est-il du respect de la vie privée des consommateurs par ces entreprises ?

5 ans après les prémices de l’IA dans les entreprises, ces structures se sont d’abord focalisées sur les technologies. Elles ne sont passées à la responsabilité de l’IA que depuis 18 mois seulement, au moment où le sujet commence à être débattu.

Si de nombreuses structures ont déjà nommé leurs responsables respectifs qui vont s’en charger un certain nombre d’entreprises ne s’y sont pas encore mises. Des questions restent ainsi sans réponses : qui garantit le bon fonctionnement de ces algorithmes ? Quels sont les outils de test à utiliser ? Y a-t-il une véritable transparence dans l’utilisation de l’outil ?…

Bref, les entreprises sont pleinement conscientes de l’importance du respect de la vie privée des gens dans l’usage de l’IA. D’autant plus qu’il y les sévères pénalités des RGPD européennes qui planent sur leur tête et qu’en cas de manquement à ces règles, ne manqueront pas d’être appliquées. 

L’impact social de l’usage de l’IA dans les entreprises

Il est pourtant difficile à ces entreprises de prévenir l’impact social et environnemental de l’usage de l’IA. Cela concerne surtout la possibilité pour l’IA de remplacer l’homme par des algorithmes. Selon l’OCDE, 2/3 des salariés ont peur de perdre leur emploi à cause de l’usage de l’IA qu’ils ne sauraient pas utiliser ou qui pourraient faire disparaître leurs professions. C’est sans compter les conséquences discriminantes et les conclusions absurdes que ces programmes peuvent engendrer, vu leur raisonnement influencé par des ensembles de données incomplets.

Le BCG reste pourtant optimiste et déclare que les entreprises s’efforcent de plus en plus d’être responsables dans leurs usages de l’IA pour l’intérêt de leurs affaires. En effet, tant les consommateurs que les clients peuvent voir d’un mauvais œil le fait que les entreprises se servent à mauvais escient de ces technologies, et peuvent se méfier.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from Youtube
Vimeo
Consent to display content from Vimeo
Google Maps
Consent to display content from Google
Spotify
Consent to display content from Spotify
Sound Cloud
Consent to display content from Sound
CONTACT