Pas de résultat
Voir tous les résultats
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous
Managers
Pas de résultat
Voir tous les résultats

FEM: les recommandations pour une technologie sans risques et fiable

16 janvier 2025
Dans Business

En évoquant la technologie dans son rapport sur les risques mondiaux, le Forum économique mondial a énuméré trois risques que pourrait connaître le monde dans ce secteur en particulier:

– L’utilisation croissante des plateformes et du contenu généré par intelligence artificielle rend la désinformation omniprésente que ce soit par inadvertance sans intention de nuire ou de manière délibérée pour induire en erreur et créer la confusion entre faits et fiction.

– Les polarisations algorithmiques pourraient devenir plus courantes en raison de la polarisation politique et sociale et de la désinformation associée.

– Une digitalisation plus profonde peut faciliter la surveillance pour les gouvernements, les entreprises et des entités menaçantes. Cela devient plus risqué à mesure que les sociétés se polarisent de plus en plus.

Le même rapport a présenté par la suite trois recommandations pour faire fac à ces risques:

  • Etendre le renforcement des compétences pour les personnes qui construisent et utilisent les algorithmes automatisés:

Les organisations devraient utiliser des modèles d’IA qui minimisent la polarisation et atténuent les conséquences non intentionnelles dans la création et partage de contenu. Même si les solutions techniques pour dépolariser significativement les algorithmes automatisés existent déjà, leur application constante reste un défi.

Si ces solutions sont implémentées correctement, elles pourraient réduire grandement les risques associés à un modèle polarisé. Les stratégies de dépolarisation courantes comprennent le prétraitement des données avant la formation d’un modèle, les techniques de traitement interne pendant la formation et les étapes de post-traitement après la formation. Ces méthodes permettent d’assurer que les modèles d’IA soient plus justes et équitables.

Cependant, en raison du rythme rapide de l’évolution dans le développement de l’IA et la complexité croissante de ses applications, garder à jour ses connaissances des derniers progrès en matière de dépolarisation algorithmique est difficile pour beaucoup de personnes impliquées dans la construction et l’utilisation d’algorithmes automatisés.

Pour y remédier, il est urgent de perfectionner continuellement les développeurs, les analystes de données et les décideurs. Les gouvernements, la société civile et le milieu universitaire devraient collaborer pour créer des programmes de stage de compréhension qui soient complets, fréquents, réguliers et qui reflètent les dernières avancées en matière d’IA et d’équité algorithmique. Ces programmes devraient se concentrer non seulement sur les capacités techniques mais devraient  également  mettre l’accent sur l’importance d’une prise de décision éthique, une manipulation responsable des données et un impact sociétal des systèmes AI.

  • Promouvoir le financement de l’apprentissage digital :

Le GRPS estime que la désinformation et la polarisation sociétale sont les deux risques pour lesquels la sensibilisation du public et l’éducation pourront potentiellement à long terme stimuler l’action en matière de réduction des risques et de préparation. La censure et la surveillance sont également parmi les cinq principaux risques qui pourraient être abordés de cette même façon. Il est urgent de mener des campagnes de sensibilisation du public pour éduquer les citoyens sur les risques associés aux espaces numériques, mais également sur les outils et les pratiques qu’ils peuvent utiliser pour se protéger et renforcer la confiance dans leur utilisation des plateformes. Par exemple, les citoyens devraient être Bien informés sur les paramètres de confidentialité et de sécurité pour leurs les dispositifs, y compris l’authentification à deux facteurs et les autorisations des applications. Les programmes de sensibilisation devraient couvrir également la reconnaissance des tentatives d’hameçonnage, la protection les données personnelles et la navigation sécuritaire sur les médias sociaux.

Par ailleurs, les initiatives d’apprentissage numérique devraient aider les individus à comprendre le rôle des algorithmes et les données dans la conception de leurs expériences en ligne, en favorisant la pensée critique permet de reconnaître et de remettre en question les préjugés ou de contenu préjudiciable. Gouvernements, société civile et les organisations du secteur privé ont tous un rôle à jouer dans la promotion de ces campagnes en veillant à ce qu’elles soient accessibles à diverses populations.

  • Améliorer la responsabilisation et la transparence :

Le cadre de confiance numérique selon le Forum économique mondial définit les thèmes clés de la gouvernance pour assurer l’adoption durable et responsable de l’IA. Ils comptent la responsabilisation et la transparence.

La première pourrait impliquer la création de conseils de surveillance et de conseils d’IA, ainsi que des processus de supervision humaine. Ces comités devraient tenir compte des points de vue divers des technologues, des éthiciens, des experts juridiques, des créateurs et d’autres pour évaluer efficacement les produits et les fonctionnalités GenAI. Ils devraient être responsables d’examiner des pratiques d’IA, de la détermination des risques potentiels et du respect des politiques internes et des règlements externes.

En ce qui concerne la transparence, il faut favoriser les besoins de transparence chez les consommateurs pour qu’ils exigent que les organisations informent sur le contenu généré par l’IA et son utilisation au moyen d’un étiquetage approprié et de divulgations. Information sur les pratiques en matière de données, les politiques de sécurité et les risques potentiels (comme la polarisation et la confidentialité) du modèle d’IA utilisé dans les produits GenAI devraient être disponibles via une documentation accessible. Les normes et techniques des solutions pour assurer l’authenticité du contenu, comme une filigrane numérique, l’origine et l’historique du contenu; la gestion des droits basée sur la blockchain – sont actuellement en cours de développement pour soutenir la confiance dans l’écosystème de l’information. Toutefois, les mises en œuvre à grande échelle nécessitent des cadres politiques qui sont alignés sur des principes, des règles et normes technologiques.

Ines Ayed

Ines Ayed

RelatedArticles

La société portugaise BA Glass choisit la Tunisie pour booster son expansion en Afrique
Business

La société portugaise BA Glass choisit la Tunisie pour booster son expansion en Afrique

16 décembre 2025
La société CDC Gestion modifie sa structure de capital
Business

La société CDC Gestion modifie sa structure de capital

16 décembre 2025
Voyager ou travailler en Afrique de l’Ouest? Le roaming deviendra gratuit dans ces pays en 2026
Business

Voyager ou travailler en Afrique de l’Ouest? Le roaming deviendra gratuit dans ces pays en 2026

16 décembre 2025

Les plus lus

  • Voici les 10 pays africains les plus riches en 2025

    Voici les 10 pays africains les plus riches en 2025

    0 partages
    Partage 0 Tweet 0
  • L’entreprise allemande Knauf ouvre un nouveau centre de compétences en Tunisie…

    0 partages
    Partage 0 Tweet 0
  • 151 PME tunisiennes obtiennent un soutien financier de l’État: voici les secteurs concernés

    0 partages
    Partage 0 Tweet 0
  • C’est confirmé la hausse des salaires et des pensions prévue pour 2026 2027 et 2028 !

    0 partages
    Partage 0 Tweet 0
  • Nouveaux avantages fiscaux pour les Tunisiens résidant à l’étranger…

    0 partages
    Partage 0 Tweet 0
  • Tunisie: le groupe allemand LAPP implante un centre de R&D  

    0 partages
    Partage 0 Tweet 0
Testez votre personnalité de lecteurs Managers

Testez votre personnalité de lecteurs Managers

16 décembre 2025
Ouverture de deux consulats à Ajaccio et Bordeaux au service de la diaspora tunisienne

Ouverture de deux consulats à Ajaccio et Bordeaux au service de la diaspora tunisienne

16 décembre 2025
Médicaments: le système «tiers payant» en suspension officielle

Médicaments: le système «tiers payant» en suspension officielle

16 décembre 2025
L’entreprise allemande Knauf ouvre un nouveau centre de compétences en Tunisie…

L’entreprise allemande Knauf ouvre un nouveau centre de compétences en Tunisie…

16 décembre 2025
Lancement du programme ALECA: repenser l’humain et l’humanisme au cœur des échanges culturels et philosophiques

Lancement du programme ALECA: repenser l’humain et l’humanisme au cœur des échanges culturels et philosophiques

16 décembre 2025
Nouveau: 4 guichets uniques dans 4 gouvernorats pour accompagner les pèlerins 2026

Nouveau: 4 guichets uniques dans 4 gouvernorats pour accompagner les pèlerins 2026

16 décembre 2025

Suivez-Nous

L’essentiel de l’actu Business dans votre boîte e-mail

Managers

Managers est un média qui publie un magazine mensuel et un site Web destinés aux entrepreneurs et aux dirigeants d’entreprises pour les informer et les accompagner dans leur progression de carrière

Catégories

  • Banking
  • Biz’art & Cult
  • Business
  • Eco
  • Entreprise
  • Executives
  • Managers
  • Startups
  • Vidéo
  • Podcast
  • Les banques tunisiennes

Abonnez-vous

Facebook Twitter Instagram LinkedIn
  • Qui Sommes Nous

Copyright © , Managers

Pas de résultat
Voir tous les résultats
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
    • AFRICAN ESG SUMMIT
  • Packs TRE
  • Inscrivez-vous

Copyright © , Managers

Share This
  • Facebook
  • Twitter
  • Gmail
  • LinkedIn