La percée des nouvelles technologies de la communication demeure un enjeu majeur dans la manipulation des données personnelles. Conscient de cela, le Forum sur l’information et la démocratie (Fid) et l’Ong Alcrer se mobilisent pour promouvoir des initiatives de sensibilisation des citoyens sur les dangers de l’utilisation non contrôlée des données dans la droite ligne des recommandations du rapport international sur l’Ia publié en février 2024.
Plusieurs acteurs étatiques provenant des ministères, du parlement et d’institutions de régulation ainsi que des acteurs non-étatiques (société civile et médias) ont été sensibilisés sur la pénétration de l’IA au Bénin, ses usages, ses perspectives d’évolution et son potentiel contributif au développement national. La rencontre a offert l’occasion aux participants, d’échanger sur les recommandations formulées par le rapport publié à l’international par Fid en février 2024, telles qu’elles ont été adaptées au contexte béninois lors d’un atelier tenu à Cotonou le 17 avril 2024. Parmi ces recommandations figure en bonne place l’importance de l’éducation sur la protection des données des utilisateurs des technologies d’Ia. En effet, beaucoup d’individus ignorent à quel point leurs données personnelles sont utilisées à leur insu. Dès lors, il importe de sensibiliser le public afin de l’amener à comprendre les risques et à adopter des comportements plus prudents et ainsi limiter les dégâts. Par ailleurs, les grandes entreprises et plateformes numériques exploitent énormément les données personnelles pour la publicité ciblée et d’autres usages. Une sensibilisation collective encourage les citoyens à réclamer plus de transparence et de contrôle sur les informations. De leurs côtés, les pouvoirs publics sont appelés à élaborer un cadre juridique en veillant à mettre en place des règles claires de développement, de déploiement et d’utilisation de l’Ia ainsi que des régimes de responsabilités qui en découlent pour chaque partie prenante.
De pertinentes recommandations
Dans leurs recommandations, le Fid et Alcrer ont appelé à « mettre en place des mécanismes de transparence, d’atténuation des risques et de recours accessibles à travers, par exemple, des portails de plaintes, des médiateurs indépendants ». Cela est crucial pour garantir une utilisation éthique et sécurisée de l’Ia, notamment en ce qui concerne les données personnelles et les deepfakes. « Quand il y a transparence, il y a la compréhension et le contrôle de l’utilisation de l’Ia est plus efficace », commente Victoire Tokpovi, chargée du projet Ia à l’Ong Alcrer. Comme le mentionne le rapport de février 2024, « informer les utilisateurs implique que les individus doivent savoir comment leurs données sont collectées, utilisées et partagées. Il faut ainsi encourager la responsabilité des entreprises qui exige que les plateformes utilisant l’Ia (comme les générateurs de deepfakes) doivent expliquer leurs pratiques et mettre en place des outils pour identifier les contenus manipulés. Pour ainsi favoriser la confiance, une meilleure transparence réduit la méfiance et renforce la relation entre les citoyens, les entreprises et les gouvernements ». Le rapport recommande également de développer des outils pour repérer et signaler les deepfakes malveillants ou les abus de données personnelles. La régulation et l’éthique nécessitent la mise en place des lois claires pour interdire les usages nuisibles et encadrer les pratiques des entreprises technologiques. Elles nécessitent également la mise en place de recours accessibles. Un tel mécanisme permettrait de limiter les dérives, de protéger les citoyens et d’encourager un usage responsable des technologies numériques. Il ne s’agit pas d’empêcher l’innovation, mais de s’assurer qu’elle profite à tous sans mettre en danger la sécurité et l’intégrité des individus.
Abdourhamane Touré
