Pas de résultat
Voir tous les résultats
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous
Managers
Pas de résultat
Voir tous les résultats

FEM: les recommandations pour une technologie sans risques et fiable

16 janvier 2025
Dans Business

En évoquant la technologie dans son rapport sur les risques mondiaux, le Forum économique mondial a énuméré trois risques que pourrait connaître le monde dans ce secteur en particulier:

– L’utilisation croissante des plateformes et du contenu généré par intelligence artificielle rend la désinformation omniprésente que ce soit par inadvertance sans intention de nuire ou de manière délibérée pour induire en erreur et créer la confusion entre faits et fiction.

– Les polarisations algorithmiques pourraient devenir plus courantes en raison de la polarisation politique et sociale et de la désinformation associée.

– Une digitalisation plus profonde peut faciliter la surveillance pour les gouvernements, les entreprises et des entités menaçantes. Cela devient plus risqué à mesure que les sociétés se polarisent de plus en plus.

Le même rapport a présenté par la suite trois recommandations pour faire fac à ces risques:

  • Etendre le renforcement des compétences pour les personnes qui construisent et utilisent les algorithmes automatisés:

Les organisations devraient utiliser des modèles d’IA qui minimisent la polarisation et atténuent les conséquences non intentionnelles dans la création et partage de contenu. Même si les solutions techniques pour dépolariser significativement les algorithmes automatisés existent déjà, leur application constante reste un défi.

Si ces solutions sont implémentées correctement, elles pourraient réduire grandement les risques associés à un modèle polarisé. Les stratégies de dépolarisation courantes comprennent le prétraitement des données avant la formation d’un modèle, les techniques de traitement interne pendant la formation et les étapes de post-traitement après la formation. Ces méthodes permettent d’assurer que les modèles d’IA soient plus justes et équitables.

Cependant, en raison du rythme rapide de l’évolution dans le développement de l’IA et la complexité croissante de ses applications, garder à jour ses connaissances des derniers progrès en matière de dépolarisation algorithmique est difficile pour beaucoup de personnes impliquées dans la construction et l’utilisation d’algorithmes automatisés.

Pour y remédier, il est urgent de perfectionner continuellement les développeurs, les analystes de données et les décideurs. Les gouvernements, la société civile et le milieu universitaire devraient collaborer pour créer des programmes de stage de compréhension qui soient complets, fréquents, réguliers et qui reflètent les dernières avancées en matière d’IA et d’équité algorithmique. Ces programmes devraient se concentrer non seulement sur les capacités techniques mais devraient  également  mettre l’accent sur l’importance d’une prise de décision éthique, une manipulation responsable des données et un impact sociétal des systèmes AI.

  • Promouvoir le financement de l’apprentissage digital :

Le GRPS estime que la désinformation et la polarisation sociétale sont les deux risques pour lesquels la sensibilisation du public et l’éducation pourront potentiellement à long terme stimuler l’action en matière de réduction des risques et de préparation. La censure et la surveillance sont également parmi les cinq principaux risques qui pourraient être abordés de cette même façon. Il est urgent de mener des campagnes de sensibilisation du public pour éduquer les citoyens sur les risques associés aux espaces numériques, mais également sur les outils et les pratiques qu’ils peuvent utiliser pour se protéger et renforcer la confiance dans leur utilisation des plateformes. Par exemple, les citoyens devraient être Bien informés sur les paramètres de confidentialité et de sécurité pour leurs les dispositifs, y compris l’authentification à deux facteurs et les autorisations des applications. Les programmes de sensibilisation devraient couvrir également la reconnaissance des tentatives d’hameçonnage, la protection les données personnelles et la navigation sécuritaire sur les médias sociaux.

Par ailleurs, les initiatives d’apprentissage numérique devraient aider les individus à comprendre le rôle des algorithmes et les données dans la conception de leurs expériences en ligne, en favorisant la pensée critique permet de reconnaître et de remettre en question les préjugés ou de contenu préjudiciable. Gouvernements, société civile et les organisations du secteur privé ont tous un rôle à jouer dans la promotion de ces campagnes en veillant à ce qu’elles soient accessibles à diverses populations.

  • Améliorer la responsabilisation et la transparence :

Le cadre de confiance numérique selon le Forum économique mondial définit les thèmes clés de la gouvernance pour assurer l’adoption durable et responsable de l’IA. Ils comptent la responsabilisation et la transparence.

La première pourrait impliquer la création de conseils de surveillance et de conseils d’IA, ainsi que des processus de supervision humaine. Ces comités devraient tenir compte des points de vue divers des technologues, des éthiciens, des experts juridiques, des créateurs et d’autres pour évaluer efficacement les produits et les fonctionnalités GenAI. Ils devraient être responsables d’examiner des pratiques d’IA, de la détermination des risques potentiels et du respect des politiques internes et des règlements externes.

En ce qui concerne la transparence, il faut favoriser les besoins de transparence chez les consommateurs pour qu’ils exigent que les organisations informent sur le contenu généré par l’IA et son utilisation au moyen d’un étiquetage approprié et de divulgations. Information sur les pratiques en matière de données, les politiques de sécurité et les risques potentiels (comme la polarisation et la confidentialité) du modèle d’IA utilisé dans les produits GenAI devraient être disponibles via une documentation accessible. Les normes et techniques des solutions pour assurer l’authenticité du contenu, comme une filigrane numérique, l’origine et l’historique du contenu; la gestion des droits basée sur la blockchain – sont actuellement en cours de développement pour soutenir la confiance dans l’écosystème de l’information. Toutefois, les mises en œuvre à grande échelle nécessitent des cadres politiques qui sont alignés sur des principes, des règles et normes technologiques.

Ines Ayed

Ines Ayed

RelatedArticles

Le déficit de la balance commerciale énergétique diminue de 5% à fin juillet 2025
Business

Le déficit de la balance commerciale énergétique diminue de 5% à fin juillet 2025

13 septembre 2025
La fin du renouvellement des contrats CIVP, c’est pour très bientôt…
Business

La fin du renouvellement des contrats CIVP, c’est pour très bientôt…

13 septembre 2025
Déficit commercial tunisien creusé à 14,64 milliards de dinars à fin août 2025
Business

Déficit commercial tunisien creusé à 14,64 milliards de dinars à fin août 2025

13 septembre 2025

Les plus lus

  • CMR Tunisie inaugure l’extension de son unité de production à Mghira

    CMR Tunisie inaugure l’extension de son unité de production à Mghira

    0 partages
    Partage 0 Tweet 0
  • Voici les 10 pays africains les plus endettés en 2025

    0 partages
    Partage 0 Tweet 0
  • Fonds de fonds ANAVA, l’accélération de la croissance continue

    0 partages
    Partage 0 Tweet 0
  • La fin du renouvellement des contrats CIVP, c’est pour très bientôt…

    0 partages
    Partage 0 Tweet 0
  • Recrutement de 110 technologues dans 5 spécialités

    0 partages
    Partage 0 Tweet 0
  • Quand la maladie mène à la création: Minora, la thérapie parfumée d’Amina Ammar

    0 partages
    Partage 0 Tweet 0
216 Capital Venture Accelerator vise une vingtaine de startups tunisiennes

216 Capital Venture Accelerator vise une vingtaine de startups tunisiennes

12 septembre 2025
Tunis accueille la 4e édition de la TIEXPO

Tunis accueille la 4e édition de la TIEXPO

12 septembre 2025
Université SESAME: former les talents d’aujourd’hui pour bâtir les solutions de demain

Université SESAME: former les talents d’aujourd’hui pour bâtir les solutions de demain

12 septembre 2025
Tunisie-AFD: des accords de financement de 54 M€ pour l’eau, l’emploi et l’autonomisation économique

Tunisie-AFD: des accords de financement de 54 M€ pour l’eau, l’emploi et l’autonomisation économique

12 septembre 2025
Relance économique tuniso-égyptienne: l’Utica appelle à renforcer les investissements et la coopération bilatérale

Relance économique tuniso-égyptienne: l’Utica appelle à renforcer les investissements et la coopération bilatérale

12 septembre 2025
New Body Line: de nouvelles provisions ont pesé sur le résultat net

New Body Line: de nouvelles provisions ont pesé sur le résultat net

12 septembre 2025

Suivez-Nous

L’essentiel de l’actu Business dans votre boîte e-mail

Managers

Managers est un média qui publie un magazine mensuel et un site Web destinés aux entrepreneurs et aux dirigeants d’entreprises pour les informer et les accompagner dans leur progression de carrière

Catégories

  • Banking
  • Biz’art & Cult
  • Business
  • Eco
  • Entreprise
  • Executives
  • Managers
  • Startups
  • Vidéo
  • Podcast
  • Les banques tunisiennes

Abonnez-vous

Facebook Twitter Instagram LinkedIn
  • Qui Sommes Nous

Copyright © , Managers

Pas de résultat
Voir tous les résultats
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous

Copyright © , Managers

Share This
  • Facebook
  • Twitter
  • Gmail
  • LinkedIn