Appel à contribution : Médias automatisés, « intelligences artificielles » et algorithmes dans la communication médiatisée aujourd'hui
Dossier coordonné par Jerry Jacques, Antonin Descampe, Arnaud Claes, Victor Wiard (Université catholique de Louvain) et Florent Michelot (Université Concordia).
Présentation
ChatGPT, Bard, DALL-E, Copilot, Stable Diffusion… Le grand public, tout comme les professionnel·les de nombreuses disciplines, ont aujourd'hui accès à des dispositifs techniques promettant de créer du contenu médiatique ou de communiquer de manière dite « intelligente », « autonome » ou « générative ». Ces derniers, conçus sur base de processus algorithmiques et utilisant dans la plupart des cas l'apprentissage automatique (machine learning) sur base de grands ensembles de données (textes, images, audios ou vidéos), sont annoncés par les industriels comme étant dotés de capacités révolutionnaires et « intelligentes », susceptibles d'avoir des effets massifs sur l'environnement informationnel et médiatique contemporain. Ces dispositifs et leurs effets sont aujourd'hui une question clé débattue dans l'espace public, bien qu'il semble parfois difficile de sortir des discours simplistes, exagérément enthousiastes ou, à l'inverse, alarmistes. La rhétorique de la « disruption » mise en place par leurs concepteurs, ainsi que la haute technicité de ces artéfacts compliquent le développement d'un regard distancié, réflexif, voire critique à leur égard. Il en va de même pour la métaphore de l'intelligence artificielle, utilisée comme mode dominant de conceptualisation des capacités computationnelles et modalités d'interaction proposées par ces outils numériques. Dans ce contexte, ce numéro souhaite contribuer au déploiement d'un rapport critique nuancé en interrogeant spécifiquement la dimension médiatique de ces innovations technologiques depuis le champ des sciences de l'information et de la communication, en les regroupant sous l'appellation de « médias automatisés ».
Anderson et Meyer (1988, p.316) définissent un média comme une « activité humaine distincte qui organise la réalité en textes lisibles en vue de l'action ». Plus qu'un simple support sémiotique, un média est également une performance interprétative dont la réussite est concomitante à l'environnement social dans lequel elle s'intègre. Les systèmes de recommandations et, plus récemment, les agents conversationnels, sont des exemples parmi d'autres de ce que nous proposons d'appeler des automates computationnels. Ceux-ci organisent des systèmes symboliques sur base d'une double autonomie informationnelle (Simondon, 1968/2005) leur permettant de suivre les programmes créés par leurs concepteurs tout en s'adaptant aux flux d'information entrant et sortant. L'intervention humaine, loin d'être supprimée, est alors délocalisée autour de ces automates dans des tâches de configuration, pilotage ou maintenance de flux informationnels.
L'objectif de ce numéro est d'apporter un éclairage sur la place que prend aujourd'hui cette automatisation au sein des processus médiatiques. Comment caractériser et définir ces médias d'un genre particulier qui recourent de manière croissante à l'automatisation ? Quelles éventuelles conséquences pour le concept de média, et donc pour l'organisation du réel et la production de « textes lisibles », au sens d'Anderson et Meyer (1988) ? Et puis, en quoi cette vision peut éventuellement contribuer à éclairer sous un autre jour les systèmes artificiels intelligents (Andler, 2023) ?
Pour commencer à répondre à ces questions, ce numéro est ouvert aussi bien à des contributions théoriques, méthodologiques, que empiriques. Bien que les contributions soient invitées à s'inscrire clairement dans le champ des sciences de l'information et de la communication, elles sont également encouragées à s'ouvrir à l'interdisciplinarité à chaque fois que nécessaire. Elles devront néanmoins s'inscrire dans un ou plusieurs des axes détaillés ci-dessous.
Axe 1: Pratiquer et concevoir les médias automatisés
La plupart des automates computationnels sont aujourd'hui conçus sur le modèle du majordome anglais, capables de prédire et répondre aux besoins de leurs utilisateurs et utilisatrices (Negroponte, 1995). Jusqu'à présent, le cadre interprétatif utilisé par ces automates pour traiter des données repose majoritairement sur des principes d'efficacité, d'optimisation et, surtout, de prédiction. L'automate computationnel vise à identifier des schémas et à les reproduire, au risque de calcifier les pratiques en reproduisant perpétuellement des événements passés.
Toutefois, plutôt que de placer la pratique quotidienne et la conception sur deux plans d'analyses distincts, nous souhaitons ici les envisager comme appartenant à un même continuum. D'une part, la personne qui développe, bien qu’opérant à un niveau d’abstraction différent de celle qui “utilise” au sens classique du terme, n’est souvent qu’un autre type d’usager·ère d’une technologie donnée. La plateformisation de l'intelligence artificielle, à travers la multiplication de services décentralisés, n'a fait qu'accentuer le développement d'une pratique de la programmation qui repose sur l'agencement de services et composants tiers. D'autre part, l'utilisateur ou utilisatrice bricole, agence, configure, orchestre, opère en somme, une multitude de dispositifs au cœur de pratiques complexes. On peut dès lors interroger la validité d'une telle séparation entre usage et conception. Si une distinction doit être envisagée, elle se situe plutôt dans le rapport à l'existant. Que les personnes soient utilisatrices ou conceptrices, quelles sont celles qui se contentent des outils à leurs dispositions ? A l'inverse, quels sont celles qui s'engagent dans des pratiques plus ou moins complexes pour adapter ces dispositifs plutôt qu'elles-mêmes ?
Dans la continuité de cette réflexion, la figure de l'interface constitue un point nodal entre conception et usage, entre prescription technique et appropriation sociale. Qu'il s'agisse d'une interface graphique ou d'une interface de programmation, elle prescrit des usages, des imaginaires et des modes de relation. Elle matérialise le cadre interprétatif mentionné plus haut, en orientant les manières de faire, de percevoir et d'agir. Dès lors, nous souhaitons explorer les stratégies mises en place par les personnes utilisant, développant, ou opérant ces systèmes, pour se les approprier, contourner les usages prescrits, ou encore produire de nouveaux agencements porteurs de sens. Nous sommes particulièrement intéressés par des travaux qui interrogent la place qu'occupe ces dispositifs au cœur de pratiques professionnelles et collectives, notamment dans le champ des médias d'information. Dans ce domaine, les pratiques de vérification, de contextualisation ou de certification de l'information constituent des gestes professionnels clés, qui se trouvent aujourd'hui reconfigurés par l'introduction massive d'automates et d'interfaces algorithmiques. Ces systèmes tendent à rationaliser et standardiser les processus éditoriaux, parfois au détriment des dimensions critiques, réflexives ou situées du travail journalistique.
Axe 2: Comprendre et imaginer les médias automatisés
Malgré l'opacité de ces technologies, leurs utilisateurs et utilisatrices s'interrogent. En confrontant leurs usages avec leurs pairs, ils et elles construisent des modèles mentaux, des imaginaires algorithmiques (Bucher, 2018), qui orientent la pratique et la conception. Cet axe propose dès lors de s'intéresser aux imaginaires culturels produits sur/autour des médias automatisés ainsi qu'à ceux produits par ces derniers.
Cet axe invite des contributions portant sur les imaginaires sociotechniques associés aux médias automatisés, entendus comme des constructions symboliques collectives voire sociétales nourries par une pluralité de discours. Les récits produits autour de ces dispositifs — qu'ils concernent leur intelligence supposée, leur efficacité, leur autonomie ou leur potentiel disruptif — participent à forger des représentations sociales de la technologie, du progrès, ou encore des rapports entre humains et machines. Ces discours, véhiculés tant par les industries, les médias, les institutions que par la population elle-même, constituent des matrices interprétatives influençant les usages, les attentes, mais aussi les formes de critique de ces technologies. Les contributions portant sur cet axe pourront s'appuyer, par exemple, sur des cadres conceptuels issus des études sur les imaginaires technologiques (Bucher, 2018) ou les théories profanes (Toff & Nielsen, 2018). Des approches comme l'analyse de discours ou la sémiotique sont particulièrement bienvenues pour étudier la manière dont ces récits sont produits, circulent et affectent nos rapports au monde, aux autres et à nous-mêmes. Une attention particulière pourra aussi être portée aux dimensions cognitives de ces imaginaires : comment les individus construisent-ils des modèles mentaux, des grilles d'interprétation et des attentes à partir des discours sur les médias automatisés ? Quelles inférences, biais ou heuristiques mobilisent-ils dans leur relation aux médias automatisés ?
Au-delà de la compréhension de l’existant, qu’en est-il de notre capacité à comprendre la nature située de notre réalité technique, à imaginer une réalité technique ou des usages qui s’écartent de la norme? Cet axe sera également ouvert aux travaux qui interrogent les freins et les leviers d’une réflexion prospective, tournée vers l’imagination de dispositifs alternatifs.
Axe 3. Éduquer, apprendre et critiquer au temps des médias automatisés
Quelle est la place de l'éducation aux médias et à l'information dans cette compréhension critique des médias automatisés ? De nombreux modèles de littératie médiatique ont été développés au fil des années pour prendre en compte ces évolutions technologiques : littératie algorithmique (Le Deuff & Roumanos, 2022), littératie des données (Khan et al., 2018; Claes & Philipette, 2020) ou, plus récemment, littératie en IA (Long & Magerko, 2020). Ces approches nous invitent à interroger les continuités conceptuelles et pédagogiques de l'EMI, en particulier sur la pertinence des contenus, des compétences et des méthodes existantes face aux enjeux contemporains. Un équilibre est à trouver entre la valorisation des acquis historiques et la potentielle nécessité d'inventer de nouveaux outils et dispositifs éducatifs capables de répondre aux spécificités des médias automatisés. Dans ce contexte, il est également pertinent d'étudier l'évolution du rôle et de la responsabilité des médias d'information eux-mêmes, comme acteurs potentiels de l’éducation à un environnement informationnel de plus en plus façonné par l'automatisation.
Il en va de même pour l'éducation par les médias automatisés : comment ces dispositifs viennent-ils, au moins partiellement, rebattre les cartes des potentialités éducatives des supports médiatiques ? Avec quelles conséquences pour les pédagogues et les apprenant·es ? Là encore, la recherche d'un équilibre entre la mobilisation des savoirs et méthodes pédagogiques existants, et l'opportunité d'inventer ou de revisiter certaines de ces méthodes, apparaît primordiale.
Finalement, comme pierre angulaire de l'ensemble des réflexions proposées, nous espérons que les différentes contributions à ce numéro permettront de mettre en discussion collectivement et de manière distanciée ce qu'il est commun d'appeler aujourd'hui « l'intelligence artificielle ». En questionnant les pratiques d’utilisation et de conception, les discours, les imaginaires, ainsi que les pratiques d'éducation aux et par les médias, l'objectif est in fine de contribuer collectivement à renouveler l'approche critique de ces dispositifs techniques depuis le champ des SIC en questionnant les médias automatisés.
Modalités de soumission des propositions:
Les auteurs·rices intéressé·es sont invité·es à soumettre un résumé de 750 mots maximum (bibliographie non comprise) pour le 15 septembre 2025 au plus tard. Les résumés en français incluront un titre, les références pertinentes ainsi que le nom, l'adresse courriel et l'affiliation institutionnelle de chaque auteur·ice. Ils seront envoyés à l'adresse suivante: jerry.jacques@uclouvain.be
La pertinence des résumés sera évaluée par les responsables du numéro au regard de l'argumentaire proposé dans le présent appel à communication. Les auteur·rices recevront une réponse pour le 29 septembre 2025 au plus tard.
Les auteurs·rices dont les résumés seront acceptés seront invité·es à soumettre leur article complet sur le site web de la revue à l'adresse suivante : https://ojs.uclouvain.be/index.php/rec/index. La date limite de soumission des articles est le 19 décembre 2025. L'article complet sera rédigé en français, avec un nombre de mots compris entre 6000 et 8000 (hors résumé, mots-clés et références). Les consignes complètes pour les auteurs·rices sont disponibles sur le site de la revue à l'adresse suivante : https://ojs.uclouvain.be/index.php/rec/about/submissions. Les auteurs·rices doivent s'inscrire sur le site de la revue avant de soumettre leur article, ou, s'ils ou elles sont déjà inscrit·es, peuvent simplement se connecter et commencer le processus de soumission. La direction du dossier vérifiera les articles afin d'assurer l'anonymat (voir les consignes de soumission sur le site de la revue). Ensuite, les articles seront soumis à une évaluation par les pair·es en double aveugle.
La publication finale des articles est prévue pour l'été 2026. Les articles acceptés pour publication seront publiés un par un sur le site de la revue au fur et à mesure de leur finalisation, sans attendre que l'ensemble du numéro soit prêt à être publié.
Bibliographie
- Anderson, J. A., & Meyer, T. P. (1988). Mediated communication: A social action perspective. Sage Publications.
- Andler, D. (2023). Intelligence artificielle, intelligence humaine : La double énigme. Gallimard.
- Bucher, T. (2018). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms. Information, Communication & Society, 20(1), 30–44. https://doi.org/10.1080/1369118X.2016.1154086
- Claes, A., & Philippette, T. (2020). Defining a critical data literacy for recommender systems: A media-grounded approach. Journal of Media Literacy Education, 12(3), 17–29.
- Davis, J. L. (2020). How Artifacts Afford: The Power and Politics of Everyday Things. MIT Press.
- Harambam, J., Helberger, N., & van Hoboken, J. (2018). Democratizing algorithmic news recommenders: How to materialize voice in a technologically saturated media ecosystem. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2133). https://doi.org/10.1098/rsta.2018.0088
- Khan, H. R., Kim, J. et Chang, H.-C. (2018). Toward an Understanding of Data Literacy. https://www.ideals.illinois.edu/handle/2142/100243
- Le Deuff, O., & Roumanos, R. (2022). Enjeux définitionnels et scientifiques de la littératie algorithmique: Entre mécanologie et rétro-ingénierie documentaire. tic&société, Vol. 15, N° 2-3 | 2ème semestre 2021-1er semestre 2022, Article Vol. 15, N° 2-3 | 2ème semestre 2021-1er semestre 2022. https://doi.org/10.4000/ticetsociete.7105
- Long, D., & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–16. https://doi.org/10.1145/3313831.3376727
- Natale, S. (2021). Deceitful media: artificial intelligence and social life after the Turing test. Oxford University Press.
- Negroponte, N. (1995). Being digital (1st ed). Knopf.
- Simondon, G. (2005). L’invention dans les techniques: Cours et conférences. Seuil. (Original work published 1968)
- Toff, B., & Nielsen, R. K. (2018). “I just google it”: Folk theories of distributed discovery. Journal of communication, 68(3), 636-657.