Les aînés curieux des impacts de l’IA

Photo de Diane Lapointe
Par Diane Lapointe
Les aînés curieux des impacts de l’IA
Les participants au congrès ont découvert quelques impacts de l’IA en santé, en environnement et ses questionnements d’ordre éthique. (Photo : La Relève – Diane Lapointe)

Les aînés craignent-ils l’intelligence artificielle ? Contrairement à la perception populaire, ils sont curieux et veulent comprendre ses effets positifs et négatifs, signale Lise Laliberté, présidente de l’Université du troisième âge Montérégie de Boucherville (UTAM)

Plus de 350 têtes grises ont assisté à un colloque sur le sujet organisé par les antennes de Boucherville et de Varennes de l’UTAM, le 6 mai, au centre multifonctionnel Francine-Gadbois

Trois experts invités, Sylvie Ratté, professeure au département de génie logiciel, École de technologie supérieure; Jonathan Bonneau, doctorant en communications et professeur associé à l’UQAM, et chercheur; et Thomas Adetou, doctorant en philosophie sur l’éthique de l’IA, ont présenté chacun des conférences portant sur le fruit de leur recherche et échangé avec les participants.

Du cellulaire à l’ordi, en passant par la voiture autonome, du grille-pain jusqu’au réfrigérateur qui pourrait, dans un proche avenir, vous informer lorsqu’il ne contiendra pas assez d’aliments santé, les systèmes intelligents sont maintenant intégrés dans presque tous les domaines de la vie. Ce n’est plus de la science-fiction.

Questionnements éthiques
Bien que l’IA existe depuis 1959, elle se développe à une vitesse phénoménale depuis quelques années seulement.

Actuellement, il n’existe aucun cadre réglementaire à l’IA au Canada.

«Les gouvernements ne réussissent pas à suivre le rythme de son évolution et à adopter des règles qui pourraient la régir», affirme d’entrée de jeu Jonathan Bonneau.

«Y a-t-il des risques à développer des systèmes de plus en plus autonomes? Faut-il imposer des règles aux fabricants ? Faut-il se pencher sur la question de responsabilité», lance pour sa part Thomas Adetou, du Centre de recherche en éthique.

«Y a-t-il une bonne et une mauvaise IA ? Comment bien l’employer ? Doit-on s’en inquiéter ? A-t-on la capacité de l’apprivoiser ? Jusqu’où entrera-t-elle dans les vies privées ? Est-ce bien, moral, neutre de déployer tel ou tel robot ? Risque-ton de perdre le contrôle ? Voilà autant de questions qu’a abordées philosophiquement Thomas Adetou au cours du congrès.

L’assistance est sortie à la fois rassurée sur certains aspects de l’IA comme sur les avancées en santé, moins quant à ses impacts environnementaux, et peu quant à son opacité.

«Moi, ça été une révélation. Je ne me doutais pas que chaque caractère envoyé sur Internet créait un certain nombre de CO2», a lancé Mme Laliberté après avoir appris que l’empreinte environnementale de l’IA est sous-estimée. Utiliser, par exemple, la version 4 de ChatGPT à dix reprises dans une journée équivaut à parcourir 40 km en voiture, ou regarder Netflix durant 10 heures.

Enfin, La Relève a demandé à ChatGPT s’il y avait une bonne et une mauvaise IA. Voici la réponse : «Il n’y a pas de réponse simple à cette question. L’intelligence artificielle peut être utilisée de manière bénéfique ou préjudiciable, selon la manière dont elle est conçue, développée et utilisée. Certaines applications d’IA améliorent la vie des gens, tandis que d’autres posent des défis éthiques ou des risques potentiels.Tout dépend du contexte et de l’intention derrière son utilisateur.»

Partager cet article