Pas de résultat
Voir tous les résultats
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous
Managers
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous
Managers
Pas de résultat
Voir tous les résultats

FEM: les recommandations pour une technologie sans risques et fiable

16 janvier 2025
Dans Business

En évoquant la technologie dans son rapport sur les risques mondiaux, le Forum économique mondial a énuméré trois risques que pourrait connaître le monde dans ce secteur en particulier:

– L’utilisation croissante des plateformes et du contenu généré par intelligence artificielle rend la désinformation omniprésente que ce soit par inadvertance sans intention de nuire ou de manière délibérée pour induire en erreur et créer la confusion entre faits et fiction.

– Les polarisations algorithmiques pourraient devenir plus courantes en raison de la polarisation politique et sociale et de la désinformation associée.

– Une digitalisation plus profonde peut faciliter la surveillance pour les gouvernements, les entreprises et des entités menaçantes. Cela devient plus risqué à mesure que les sociétés se polarisent de plus en plus.

Le même rapport a présenté par la suite trois recommandations pour faire fac à ces risques:

  • Etendre le renforcement des compétences pour les personnes qui construisent et utilisent les algorithmes automatisés:

Les organisations devraient utiliser des modèles d’IA qui minimisent la polarisation et atténuent les conséquences non intentionnelles dans la création et partage de contenu. Même si les solutions techniques pour dépolariser significativement les algorithmes automatisés existent déjà, leur application constante reste un défi.

Si ces solutions sont implémentées correctement, elles pourraient réduire grandement les risques associés à un modèle polarisé. Les stratégies de dépolarisation courantes comprennent le prétraitement des données avant la formation d’un modèle, les techniques de traitement interne pendant la formation et les étapes de post-traitement après la formation. Ces méthodes permettent d’assurer que les modèles d’IA soient plus justes et équitables.

Cependant, en raison du rythme rapide de l’évolution dans le développement de l’IA et la complexité croissante de ses applications, garder à jour ses connaissances des derniers progrès en matière de dépolarisation algorithmique est difficile pour beaucoup de personnes impliquées dans la construction et l’utilisation d’algorithmes automatisés.

Pour y remédier, il est urgent de perfectionner continuellement les développeurs, les analystes de données et les décideurs. Les gouvernements, la société civile et le milieu universitaire devraient collaborer pour créer des programmes de stage de compréhension qui soient complets, fréquents, réguliers et qui reflètent les dernières avancées en matière d’IA et d’équité algorithmique. Ces programmes devraient se concentrer non seulement sur les capacités techniques mais devraient  également  mettre l’accent sur l’importance d’une prise de décision éthique, une manipulation responsable des données et un impact sociétal des systèmes AI.

  • Promouvoir le financement de l’apprentissage digital :

Le GRPS estime que la désinformation et la polarisation sociétale sont les deux risques pour lesquels la sensibilisation du public et l’éducation pourront potentiellement à long terme stimuler l’action en matière de réduction des risques et de préparation. La censure et la surveillance sont également parmi les cinq principaux risques qui pourraient être abordés de cette même façon. Il est urgent de mener des campagnes de sensibilisation du public pour éduquer les citoyens sur les risques associés aux espaces numériques, mais également sur les outils et les pratiques qu’ils peuvent utiliser pour se protéger et renforcer la confiance dans leur utilisation des plateformes. Par exemple, les citoyens devraient être Bien informés sur les paramètres de confidentialité et de sécurité pour leurs les dispositifs, y compris l’authentification à deux facteurs et les autorisations des applications. Les programmes de sensibilisation devraient couvrir également la reconnaissance des tentatives d’hameçonnage, la protection les données personnelles et la navigation sécuritaire sur les médias sociaux.

Par ailleurs, les initiatives d’apprentissage numérique devraient aider les individus à comprendre le rôle des algorithmes et les données dans la conception de leurs expériences en ligne, en favorisant la pensée critique permet de reconnaître et de remettre en question les préjugés ou de contenu préjudiciable. Gouvernements, société civile et les organisations du secteur privé ont tous un rôle à jouer dans la promotion de ces campagnes en veillant à ce qu’elles soient accessibles à diverses populations.

  • Améliorer la responsabilisation et la transparence :

Le cadre de confiance numérique selon le Forum économique mondial définit les thèmes clés de la gouvernance pour assurer l’adoption durable et responsable de l’IA. Ils comptent la responsabilisation et la transparence.

La première pourrait impliquer la création de conseils de surveillance et de conseils d’IA, ainsi que des processus de supervision humaine. Ces comités devraient tenir compte des points de vue divers des technologues, des éthiciens, des experts juridiques, des créateurs et d’autres pour évaluer efficacement les produits et les fonctionnalités GenAI. Ils devraient être responsables d’examiner des pratiques d’IA, de la détermination des risques potentiels et du respect des politiques internes et des règlements externes.

En ce qui concerne la transparence, il faut favoriser les besoins de transparence chez les consommateurs pour qu’ils exigent que les organisations informent sur le contenu généré par l’IA et son utilisation au moyen d’un étiquetage approprié et de divulgations. Information sur les pratiques en matière de données, les politiques de sécurité et les risques potentiels (comme la polarisation et la confidentialité) du modèle d’IA utilisé dans les produits GenAI devraient être disponibles via une documentation accessible. Les normes et techniques des solutions pour assurer l’authenticité du contenu, comme une filigrane numérique, l’origine et l’historique du contenu; la gestion des droits basée sur la blockchain – sont actuellement en cours de développement pour soutenir la confiance dans l’écosystème de l’information. Toutefois, les mises en œuvre à grande échelle nécessitent des cadres politiques qui sont alignés sur des principes, des règles et normes technologiques.

Ines Ayed

Ines Ayed

RelatedArticles

Poulina: plus de 7,5 millions Tnd d’actions cédées par la famille Bouricha
Business

PGH finalise une prise de participation stratégique dans JM Holding et devient actionnaire indirect de SAH

4 juillet 2025
Enactus TBS décroche son 3ème titre de Champion de Tunisie
Business

Enactus TBS décroche son 3ème titre de Champion de Tunisie

4 juillet 2025
Les PME tunisiennes face au défi de la concurrence accrue sur les marchés internationaux
Business

Les PME tunisiennes face au défi de la concurrence accrue sur les marchés internationaux

4 juillet 2025

Les plus lus

  • Poulina: plus de 7,5 millions Tnd d’actions cédées par la famille Bouricha

    PGH finalise une prise de participation stratégique dans JM Holding et devient actionnaire indirect de SAH

    0 partages
    Partage 0 Tweet 0
  • Nouveaux horaires d’été 2025 pour La Poste tunisienne et ses agences

    0 partages
    Partage 0 Tweet 0
  • Après deux ans de pause, Land’Or verse à nouveau des dividendes

    0 partages
    Partage 0 Tweet 0
  • Ces 5 pays ont le SMIC le plus élevé au monde

    0 partages
    Partage 0 Tweet 0
  • Global peace index 2025: la Tunisie dans le top 6 des pays arabes

    0 partages
    Partage 0 Tweet 0
  • Cérémonie d’octroi du Statut national de l’étudiant entrepreneur pour la 3e cohorte à l’Université de La Manouba

    0 partages
    Partage 0 Tweet 0
Les auto-entrepreneurs en Tunisie: quelles réglementations ?

Tunisie: le régime de l’auto-entrepreneur étendu aux journalistes indépendants

4 juillet 2025
Enactus TBS conserve son titre national

Enactus TBS conserve son titre national

3 juillet 2025
AMI Assurances devient BNA Assurances

BNA Assurances entame une nouvelle étape stratégique

4 juillet 2025
L’initiative Michael Cracknell, un héritage traduit en  actes de solidarité

L’initiative Michael Cracknell, un héritage traduit en actes de solidarité

3 juillet 2025
L’APIA organise une semaine portes ouvertes dédiée aux Tunisiens de l’étranger

L’APIA organise une semaine portes ouvertes dédiée aux Tunisiens de l’étranger

3 juillet 2025
Dubaï lance un programme pour aider les résidents à acheter leur premier logement

Dubaï lance un programme pour aider les résidents à acheter leur premier logement

3 juillet 2025

Suivez-Nous

L’essentiel de l’actu Business dans votre boîte e-mail

Managers

Managers est un média qui publie un magazine mensuel et un site Web destinés aux entrepreneurs et aux dirigeants d’entreprises pour les informer et les accompagner dans leur progression de carrière

Catégories

  • Banking
  • Biz’art & Cult
  • Business
  • Eco
  • Entreprise
  • Executives
  • Managers
  • Startups
  • Vidéo
  • Podcast
  • Les banques tunisiennes

Abonnez-vous

Facebook Twitter Instagram LinkedIn
  • Qui Sommes Nous

Copyright © , Managers

Pas de résultat
Voir tous les résultats
  • Business
  • Eco
  • Executives
  • Banking
  • Startups
  • Biz’art & Cult
  • Vidéo
  • Podcast
  • Our Events
    • Femmes Entrepreneurs Tunisie
    • Africa Means Business
  • Packs TRE
  • Inscrivez-vous

Copyright © , Managers

Share This
  • Facebook
  • Twitter
  • Gmail
  • LinkedIn