Pas de résultat
Voir tous les résultats
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous
Managers
Pas de résultat
Voir tous les résultats

FEM: les recommandations pour une technologie sans risques et fiable

16 janvier 2025
Dans Business

En évoquant la technologie dans son rapport sur les risques mondiaux, le Forum économique mondial a énuméré trois risques que pourrait connaître le monde dans ce secteur en particulier:

– L’utilisation croissante des plateformes et du contenu généré par intelligence artificielle rend la désinformation omniprésente que ce soit par inadvertance sans intention de nuire ou de manière délibérée pour induire en erreur et créer la confusion entre faits et fiction.

– Les polarisations algorithmiques pourraient devenir plus courantes en raison de la polarisation politique et sociale et de la désinformation associée.

– Une digitalisation plus profonde peut faciliter la surveillance pour les gouvernements, les entreprises et des entités menaçantes. Cela devient plus risqué à mesure que les sociétés se polarisent de plus en plus.

Le même rapport a présenté par la suite trois recommandations pour faire fac à ces risques:

  • Etendre le renforcement des compétences pour les personnes qui construisent et utilisent les algorithmes automatisés:

Les organisations devraient utiliser des modèles d’IA qui minimisent la polarisation et atténuent les conséquences non intentionnelles dans la création et partage de contenu. Même si les solutions techniques pour dépolariser significativement les algorithmes automatisés existent déjà, leur application constante reste un défi.

Si ces solutions sont implémentées correctement, elles pourraient réduire grandement les risques associés à un modèle polarisé. Les stratégies de dépolarisation courantes comprennent le prétraitement des données avant la formation d’un modèle, les techniques de traitement interne pendant la formation et les étapes de post-traitement après la formation. Ces méthodes permettent d’assurer que les modèles d’IA soient plus justes et équitables.

Cependant, en raison du rythme rapide de l’évolution dans le développement de l’IA et la complexité croissante de ses applications, garder à jour ses connaissances des derniers progrès en matière de dépolarisation algorithmique est difficile pour beaucoup de personnes impliquées dans la construction et l’utilisation d’algorithmes automatisés.

Pour y remédier, il est urgent de perfectionner continuellement les développeurs, les analystes de données et les décideurs. Les gouvernements, la société civile et le milieu universitaire devraient collaborer pour créer des programmes de stage de compréhension qui soient complets, fréquents, réguliers et qui reflètent les dernières avancées en matière d’IA et d’équité algorithmique. Ces programmes devraient se concentrer non seulement sur les capacités techniques mais devraient  également  mettre l’accent sur l’importance d’une prise de décision éthique, une manipulation responsable des données et un impact sociétal des systèmes AI.

  • Promouvoir le financement de l’apprentissage digital :

Le GRPS estime que la désinformation et la polarisation sociétale sont les deux risques pour lesquels la sensibilisation du public et l’éducation pourront potentiellement à long terme stimuler l’action en matière de réduction des risques et de préparation. La censure et la surveillance sont également parmi les cinq principaux risques qui pourraient être abordés de cette même façon. Il est urgent de mener des campagnes de sensibilisation du public pour éduquer les citoyens sur les risques associés aux espaces numériques, mais également sur les outils et les pratiques qu’ils peuvent utiliser pour se protéger et renforcer la confiance dans leur utilisation des plateformes. Par exemple, les citoyens devraient être Bien informés sur les paramètres de confidentialité et de sécurité pour leurs les dispositifs, y compris l’authentification à deux facteurs et les autorisations des applications. Les programmes de sensibilisation devraient couvrir également la reconnaissance des tentatives d’hameçonnage, la protection les données personnelles et la navigation sécuritaire sur les médias sociaux.

Par ailleurs, les initiatives d’apprentissage numérique devraient aider les individus à comprendre le rôle des algorithmes et les données dans la conception de leurs expériences en ligne, en favorisant la pensée critique permet de reconnaître et de remettre en question les préjugés ou de contenu préjudiciable. Gouvernements, société civile et les organisations du secteur privé ont tous un rôle à jouer dans la promotion de ces campagnes en veillant à ce qu’elles soient accessibles à diverses populations.

  • Améliorer la responsabilisation et la transparence :

Le cadre de confiance numérique selon le Forum économique mondial définit les thèmes clés de la gouvernance pour assurer l’adoption durable et responsable de l’IA. Ils comptent la responsabilisation et la transparence.

La première pourrait impliquer la création de conseils de surveillance et de conseils d’IA, ainsi que des processus de supervision humaine. Ces comités devraient tenir compte des points de vue divers des technologues, des éthiciens, des experts juridiques, des créateurs et d’autres pour évaluer efficacement les produits et les fonctionnalités GenAI. Ils devraient être responsables d’examiner des pratiques d’IA, de la détermination des risques potentiels et du respect des politiques internes et des règlements externes.

En ce qui concerne la transparence, il faut favoriser les besoins de transparence chez les consommateurs pour qu’ils exigent que les organisations informent sur le contenu généré par l’IA et son utilisation au moyen d’un étiquetage approprié et de divulgations. Information sur les pratiques en matière de données, les politiques de sécurité et les risques potentiels (comme la polarisation et la confidentialité) du modèle d’IA utilisé dans les produits GenAI devraient être disponibles via une documentation accessible. Les normes et techniques des solutions pour assurer l’authenticité du contenu, comme une filigrane numérique, l’origine et l’historique du contenu; la gestion des droits basée sur la blockchain – sont actuellement en cours de développement pour soutenir la confiance dans l’écosystème de l’information. Toutefois, les mises en œuvre à grande échelle nécessitent des cadres politiques qui sont alignés sur des principes, des règles et normes technologiques.

Ines Ayed

Ines Ayed

RelatedArticles

Tunisie -Tourisme: signature d’une convention avec Madagascar
Business

Tunisie -Tourisme: signature d’une convention avec Madagascar

10 mai 2025
Les majoritaires et les minoritaires ont bien appris à gérer les assemblées générales
Business

Les majoritaires et les minoritaires ont bien appris à gérer les assemblées générales

10 mai 2025
803 millions de dollars levés par les startups africaines jusqu’à fin avril 2025
Business

803 millions de dollars levés par les startups africaines jusqu’à fin avril 2025

10 mai 2025

Les plus lus

  • Les experts-comptables rejettent le projet de loi sur les conseillers fiscaux

    Les experts-comptables rejettent le projet de loi sur les conseillers fiscaux

    0 partages
    Partage 0 Tweet 0
  • Ces 5 pays ont le SMIC le plus élevé au monde

    0 partages
    Partage 0 Tweet 0
  • 55 millions de dinars pour renforcer la compétitivité industrielle en Tunisie

    0 partages
    Partage 0 Tweet 0
  • L’UBCI marque son engagement sur le terrain : partenaire du Kia Tunis Open 2025

    0 partages
    Partage 0 Tweet 0
  • PGH se prépare à acquérir 45,48% de JM Holding, actionnaire majoritaire de SAH

    0 partages
    Partage 0 Tweet 0
  • Tomates: le Maroc double l’Espagne et s’impose en Europe

    0 partages
    Partage 0 Tweet 0
Tunisie: la production électrique absorbe 62% de la demande de gaz naturel à fin mars 2024

Observatoire National de l’Energie: légère hausse de la production nationale d’électricité à fin mars 2025

9 mai 2025
Les experts-comptables rejettent le projet de loi sur les conseillers fiscaux

Les experts-comptables rejettent le projet de loi sur les conseillers fiscaux

9 mai 2025
Tomates marocaines: un succès qui provoque la colère de l’Espagne

Tomates: le Maroc double l’Espagne et s’impose en Europe

9 mai 2025
Enda et Cawtar s’allient pour renforcer l’éducation financière en Tunisie

Enda et Cawtar s’allient pour renforcer l’éducation financière en Tunisie

9 mai 2025
La TIA tient sa 21e session stratégique axée sur les réformes et la coopération internationale

La TIA tient sa 21e session stratégique axée sur les réformes et la coopération internationale

9 mai 2025
La SIAME Electric Algérie est née

La SIAME Electric Algérie est née

9 mai 2025

Suivez-Nous

L’essentiel de l’actu Business dans votre boîte e-mail

Managers

Managers est un média qui publie un magazine mensuel et un site Web destinés aux entrepreneurs et aux dirigeants d’entreprises pour les informer et les accompagner dans leur progression de carrière

Catégories

  • Banking
  • Biz’art & Cult
  • Business
  • Eco
  • Entreprise
  • Executives
  • Managers
  • Startups
  • Vidéo
  • Podcast
  • Les banques tunisiennes

Abonnez-vous

Facebook Twitter Instagram LinkedIn
  • Qui Sommes Nous

Copyright © , Managers

Pas de résultat
Voir tous les résultats
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous

Copyright © , Managers

Share This
  • Facebook
  • Twitter
  • Gmail
  • LinkedIn