L’intelligence artificielle est dans le collimateur de la Commission nationale de l’informatique et des libertés (CNIL). En cause, les algorithmes capables de générer des contenus tels que la propagande de campagne ou l’hyper individualisation des candidats aux dernières élections européennes. La commission évoque notamment des risques “d’hallucinations, de discriminations, de biais culturels ou encore de sécurité des données”.
Pour tenter de comprendre le fonctionnement des algorithmes à l’œuvre sur les réseaux sociaux et les risques pesant sur la démocratie, nous avons rencontré Jean-Lou Fourquet, journaliste indépendant et co-auteur, avec le chercheur en cybersécurité Lê Nguyên Hoang, de “La Dictature des algorithmes” (éditions Taillandier).
AirZen Radio. Qu’est-ce qu’une intelligence artificielle et quelle est son action sur les réseaux sociaux ?
Jean-Lou Fourquet. Nous, on parle d’algorithmes de recommandation. Ce sont des mécanismes sur les plateformes qui permettent de prédire les vidéos qui, moi, me feront le plus craquer. Pour prédire ce comportement, cette intelligence artificielle va se baser sur toutes les données en sa possession (temps d’écran, vidéos aimées, etc.).
Donc l’IA de recommandation oriente ce qu’on voit sur les réseaux sociaux. Cela explique pourquoi mon fil d’actualité est totalement différent de celui de mon voisin…
Le but de cet algorithme est de choisir les vidéos qui vont vous faire rester sur la plateforme, pour différentes raisons. Avant l’arrivée des réseaux sociaux, avant 2010, les journaux avaient ce rôle-là. Les journalistes devaient définir une page de une susceptible d’attirer le plus grand nombre.
Aujourd’hui, les réseaux sociaux sont les rédacteurs en chef de notre consommation d’écran. C’est un peu comme si 60 millions de Français avaient une page Wikipédia sur Charles de Gaulle différente. Cela pose un vrai problème démocratique. Cela pose aussi la question du vivre ensemble : comment faire bloc quand on voit des choses radicalement différentes ?
Est-ce que ces algorithmes-là peuvent orienter plus directement nos opinions ?
On a constaté a posteriori que les contenus générant chez les gens de la colère avaient un taux d’implication et d’attention plus élevé. Pour AirZen Radio, par exemple, en tant que média positif, il est sans doute plus compliqué de se positionner. Bien sûr, on peut aussi susciter de l’émotion et de l’inspiration. Mais ce n’est pas ce qui ressort le plus.
Là où c’est problématique, c’est en matière de politique. Par exemple, si vous êtes de gauche, l’intelligence artificielle va vous proposer les caricatures de la pensée de droite. C’est celles-là qui vont vous mettre en colère, vous faire réagir, vous conforter dans votre opinion que le camp d’en face est peuplé d’idiots. Et inversement.
C’est terrible, car on doit faire société avec des gens qui projettent sur l’autre une caricature d’opinions. Il y a de nombreux exemples de l’influence des réseaux sur le contexte politique. On pense à l’élection de Trump, la crise des gilets jaune alimentée, entre autres, par les vidéos de Russia Today. Ou encore, en Birmanie, où Facebook a été déclaré, par Amnesty International, en partie responsable du génocide de Rohingyas.
Quelle est la finalité ?
Le modèle de l’économie de l’attention c’est que le temps que nous passons à rester sur ses plateformes va être revendu sous une forme ou une autre à des annonceurs. Sous forme de données d’usage, pour avoir de la publicité archi-ciblée. Par exemple, avant, dans la rue, tout le monde voyait la même pub Leroy Merlin, qu’il ait ou non une maison. Aujourd’hui, les algorithmes permettent à Leroy Merlin de cibler uniquement et directement ceux qui possèdent une maison et pas les autres.