L’IA va-t-elle aider ou entraver la démocratie ? Les médias sociaux rassembleront-ils les citoyens dans un débat animé ou la désinformation les divisera-t-elle ? Quel rôle les citoyens jouent-ils dans l’élaboration de notre avenir numérique ?
D’éminents experts canadiens en IA et en grandes technologies se sont joints à leurs homologues américains pour débattre de ces questions lors de notre troisième Sommet de la technologie responsable, co-organisé par le le Consulat général du Canada à New York et All Tech Is Human.
Près de 300 personnes de la société civile, du gouvernement et du secteur technologique lui-même y ont participé pour mieux comprendre la multitude de problèmes auxquels notre société est confrontée et comment nous pouvons façonner notre avenir numérique pour mieux l’aligner sur l’intérêt public.
Le Canada est bien placé pour diriger ce débat mondial. « Le Canada a été le premier pays à lancer une stratégie nationale en matière d’IA pour commercialiser les technologies canadiennes en matière d’IA, faire progresser les normes fédérales en matière d’IA et investir dans la formation et les talents de classe mondiale », a déclaré le consul général adjoint du Canada, André Frenette.
« Mais nous savons que nous ne pouvons pas tracer le chemin seuls. Le Canada et les États-Unis sont les plus anciens alliés et partenaires l’un de l’autre, et notre collaboration sur les technologies numériques ne fait que commencer. »
« S’attaquer à des problèmes technologiques et sociétaux complexes, tels que l’impact de l’IA générative, nécessite qu’un large éventail d’horizons et de parties prenantes se réunissent pour comprendre les valeurs, les meilleures pratiques et la meilleure voie à suivre », a ajouté David Ryan Polgar, fondateur et président de l’organisation All Tech Is Human.
« Cependant, on a trop souvent l’impression que l’innovation technologique évolue beaucoup plus rapidement que notre capacité à comprendre son impact et à créer des garde-fous et des politiques appropriées. »
L’événement a débuté par une conversation au coin du feu avec Julie Scelfo, directrice exécutive de Get Media Savvy, en conversation avec la sociologue du MIT, la Dre Sherry Turkle, à propos de ses recherches de plusieurs décennies sur la façon dont la technologie façonne la santé mentale et le bien-être.
Dre Turkle a souligné à quel point la prévalence des téléphones intelligents et d’autres technologies avait un impact négatif sur le développement de la petite enfance, entravant la capacité des jeunes à lire les signaux sociaux et à développer des relations saines.
Invitant les décideurs politiques, les défenseurs et les universitaires à se rassembler, Dre Turkle a appelé à un mouvement de consommateurs pour rendre la technologie plus humaine : « Même si cela va être un très long combat, je crois que c’est un combat que nous allons gagner parce que le les dommages et les préjudices sont tout simplement trop importants. Je considère cela comme un moment de briser le verre, où il est temps de briser le verre et de dire que c’est maintenant ou jamais. »
Ensuite, le directeur de l’école Munk, Peter Loewen, a animé un panel sur l’IA générative et les élections, auquel participaient la Dre Samantha Bradshaw, boursière du CIGI, l’entrepreneur technologique canadien Shuman Ghosemajumder et la directrice de recherche sur la technologie et la démocratie de Freedom House, Allie Funk.
Le Dre Bradshaw a expliqué comment de grands modèles linguistiques peuvent permettre des campagnes de désinformation plus convaincantes, plus personnalisées et plus difficiles à suivre à une plus grande échelle qu’il n’était possible auparavant.
Ghosemajumder a déclaré que les licenciements généralisés des équipes de confiance et de sécurité dans l’industrie technologique américaine étaient particulièrement inquiétants compte tenu des progrès rapides de l’IA générative et de son potentiel d’utilisation abusive par les cybercriminels.
Funk a souligné à quel point la technologie générative façonne déjà les élections, en citant un exemple du début de cette année d’un clip audio deepfake d’un candidat à la présidentielle nigérian parlant de fraude électorale.
Cependant, Funk a ajouté : « De nombreux problèmes liés aux campagnes de désinformation et à la fiabilité des espaces d’information sont des problèmes sociétaux et non des problèmes techniques. Il s’agit de renforcer la résilience en tant que société, car les réglementations et les solutions techniques ne nous mèneront pas loin. »
La célèbre lanceuse d’alerte de Facebook, Frances Haugen, est montée sur scène pour discuter de l’état de la sécurité en ligne avec Nabiha Syed, PDG de The Markup. Actuellement chercheur principal au Centre des médias, de la technologie et de la démocratie de l’Université McGill, Haugen a passé les deux dernières années à plaider en faveur d’une réglementation technologique et à sensibiliser les gouvernements et les plaideurs aux questions de sécurité en ligne.
Appelant à un meilleur accès aux données des réseaux sociaux, Haugen a déclaré : « Nous devons exiger la transparence. Les chercheurs doivent pouvoir poser des questions et obtenir des réponses. Nous avons besoin de flux de données publics. Cela doit être obligatoire. Cela doit être soutenu par la loi.
Haugen a exhorté les défenseurs des droits sociaux et les technologues à travailler ensemble et à exploiter leurs forces respectives, soulignant que les deux groupes doivent se réunir pour identifier les préjudices qui se perpétuent en ligne et comment y remédier.
Tim Wu, professeur de droit à l’Université de Columbia, a rejoint Justin Hendrix, rédacteur en chef de Tech Policy Press, pour une conversation sur l’avenir de la politique technologique. En réfléchissant à son mandat en tant que conseiller du président Biden de 2021 à 2023, Wu s’est dit fier du travail de l’administration en matière de politique antitrust et de concurrence, citant les poursuites en cours du gouvernement américain contre Google, Facebook et Amazon comme exemples d’un effort de rééquilibrage du pouvoir qui s’est regroupé dans Big Tech.
Il a cependant également déploré que les efforts de l’administration en faveur d’une législation sur la vie privée et la sécurité des enfants aient eu moins de succès malgré le large soutien du public.
La journée s’est terminée par un panel sur les espaces numériques et les biens publics, animé par Camille Carlton, responsable principale des politiques au Center for Humane Technology. Parlant de son expérience au sein de l’équipe Trust and Safety, désormais démantelée, de Twitter, Theodora Skeadas a réitéré l’importance de la collaboration entre les personnes à l’intérieur et à l’extérieur des grandes entreprises technologiques pour créer des espaces plus sains et plus inclusifs.
La fondatrice de WAYE, Sinead Bovell, a cité la fonction Community Notes de Twitter comme un exemple d’optimisation d’une plateforme de médias sociaux pour promouvoir du contenu avec la contribution de divers utilisateurs, démontrant ainsi comment il est possible d’aligner l’intérêt public et les valeurs des actionnaires.
Le directeur exécutif du Tech Global Institute, Sabhanaz Rashid Diya, a appelé les entreprises technologiques à engager des consultations avec un éventail plus large de parties prenantes, en particulier lorsqu’elles pénètrent sur de nouveaux marchés et dans des démocraties moins établies.
L’auteur Patrick K. Lin a déclaré qu’une approche de protection des consommateurs ou de responsabilité du fait des produits en matière de réglementation technologique était une voie sous-explorée pour gouverner les grandes technologies, citant l’amende infligée à Facebook par la Federal Trade Commission en 2019 comme exemple de l’approche utilisée efficacement pour renforcer la responsabilité et transparence.