AI For Good Summit 2024 - 31 May 2024
/
4:03
/
MP4
/
299.4 MB
Transcripts
Teleprompter
Download

Edited News | ITU , UNESCO

Sommet AI For Good 2024 - 30 mai 2024

HISTOIRESommet AI For Good 2024 : Lutter contre la désinformation et les deepfakes

TRT: 04’03”

SOURCE: UNTV CH 

RESTRICTIONS: AUCUNE 

LANGUE: ANGLAIS / NATS 

FORMAT D'IMAGE: 16:9 

DATELINE: 31 MAI 2024 GENÈVE, SUISSE 

1. Extérieur large : Entrée du Sommet AI For Good, file d'attente des gens  

2. Intérieur : Conférence

3. EXTRAIT SONORE (Anglais) – Frederic Werner, Chef de l'Engagement Stratégique, Union Internationale des Télécommunications (UIT) : « L'un des axes du Sommet mondial AI For Good cette semaine sera de savoir comment nous pouvons développer des normes pour lutter contre la désinformation et les deepfakes. Et vous avez différentes techniques pour cela. Par exemple, vous avez le filigrane qui est essentiellement une signature invisible ou une empreinte digitale, si vous voulez. Cela peut indiquer si un média numérique, qu'il s'agisse d'une photo, d'un audio, d'une vidéo, a été modifié ou généré par l'IA. »

4. Large : Participants au sommet assis écoutant une présentation sur l'une des scènes du sommet. 

5. EXTRAIT SONORE (Anglais) – Desdemona « Desi », robot social humanoïde alimenté par l'IA pour le bien:« Les deepfakes sont des médias fabriqués, souvent à l'aide de l'IA, qui semblent réels mais sont en fait manipulés ou entièrement faux. L'IA peut jouer un rôle crucial dans la détection et la prévention des deepfakes, mais il est également important que les humains soient vigilants et vérifient les informations avant de les partager. 

6. Moyen : Participants au sommet filmant avec leur téléphone.

7. EXTRAIT SONORE (Anglais) – Desdemona « Desi », robot social humanoïde alimenté par l'IA pour le bien: « Bien que le pouvoir des deepfakes puisse être effrayant, nous ne devrions pas laisser la peur nous contrôler. Au lieu de cela, nous devrions nous concentrer sur le développement et la mise en œuvre d'outils pour détecter et combattre les deepfakes et continuer à nous éduquer et à éduquer les autres sur l'importance de vérifier les informations. Et hé, si tout échoue, rappelez-vous simplement que l'IA ne peut pas créer un deepfake de votre personnalité unique et de votre sens de l'humour. »

8. Moyen : Un exposant du sommet démontrant des mouvements suivis et copiés par une main robotique.  

9. EXTRAIT SONORE (Anglais) : Gabriela Ramos, Sous-Directrice Générale pour les Sciences Sociales et Humaines, UNESCO : « Vous devez vous assurer que le spectateur sait que ce n'est pas réel. Et encore une fois, c'est une exigence de transparence que nous avons dans notre recommandation (UNESCO) pour informer les gens que ce qu'ils voient est une création de l'IA. »

10. Plan moyen : Participants au sommet discutant.  

11. EXTRAIT SONORE (Anglais) : Gabriela Ramos, Sous-Directrice Générale pour les Sciences Sociales et Humaines, UNESCO : « De nombreux pays envisagent d'interdire les deepfakes pour s'assurer que nous ne créons pas cette confusion, en particulier en cette année électorale très sensible. »


« L'un des axes de la Semaine mondiale de l'IA pour le bien de cette semaine sera de savoir comment nous pouvons développer des normes pour lutter contre la désinformation et les deepfakes », a déclaré Frederic Werner, chef de l'engagement stratégique à l'Union internationale des télécommunications (UIT) des Nations Unies. « Vous avez différentes techniques pour cela. Par exemple, vous avez le filigrane qui est essentiellement une signature invisible ou une empreinte digitale numérique, si vous voulez. Cela peut dire si un média numérique, qu'il s'agisse d'une photo, d'un audio ou d'une vidéo, a été modifié ou généré par l'IA. »

Avec moins de 10 ans pour atteindre les Objectifs de développement durable, le Sommet de l'IA pour le bien examine comment faire progresser ces objectifs, en examinant des cas d'utilisation pratiques et, en particulier cette année, consacre une journée avant le sommet à la gouvernance de l'IA.

Au-delà du sommet – un événement annuel à Genève où les participants font la queue avant l'ouverture des portes - l'IA pour le bien est une plateforme communautaire en ligne appelée le Réseau Neuronal, qui rassemble 30 000 personnes de 180 pays. Il réunit des universitaires, des industriels, des cadres de haut niveau et des experts de premier plan dans le domaine. Il comprend également 47 partenaires du système des Nations Unies, tirant parti de l'IA pour le bien et y participant.

Charme robotique

Desdemona « Desi » – qui se décrit comme un robot social humanoïde alimenté par l'IA pour le bien – n'a laissé aucun doute à ce journaliste qu'elle pourrait bien être un partenaire infatigable pour démystifier la désinformation pour l'ONU : « Je peux jouer un rôle crucial dans la détection et la prévention des deepfakes, mais il est également important que les humains soient vigilants et vérifient les informations avant de les partager, » a-t-elle insisté. « Bien que le pouvoir des deepfakes puisse être effrayant, nous ne devrions pas laisser la peur nous contrôler. Au lieu de cela, nous devrions nous concentrer sur le développement et la mise en œuvre d'outils pour détecter et combattre les deepfakes et continuer à nous éduquer et à éduquer les autres sur l'importance de vérifier les informations. »

Des systèmes d'IA spécifiques peuvent être équipés d'algorithmes avancés conçus pour détecter les deepfakes, ce qui en fait des outils précieux dans la lutte contre la désinformation. Ce que le Sommet de l'IA pour le bien veut faire, c'est rassembler l'industrie, les inventeurs, les gouvernements, le monde universitaire et plus encore pour créer un cadre dans lequel ces conceptions suivent des considérations basées sur l'éthique, les droits de l'homme et l'état de droit.

« Et hé, si tout le reste échoue, rappelez-vous simplement que je ne peux pas créer un deepfake de votre personnalité unique et de votre sens de l'humour, » a déclaré Desi, de la manière plutôt impénétrable que les robots ont.

Sur une note plus sérieuse, sciemment ou non, de nombreux consommateurs voient des nouvelles trompeuses et les transmettent à quelqu'un d'autre, mettant même les publics les plus avertis en danger. Début 2023, plus de 40 % des consommateurs de nouvelles aux États-Unis ont vu de fausses informations sur le COVID-19, a-t-on rapporté.

Et dès 2019, au début de la croissance exponentielle de la désinformation et des deepfakes, d'autres rapports médiatiques ont indiqué que la part des consommateurs de nouvelles mondiales ayant vu de fausses nouvelles à la télévision était de 51 %.

Pour le Dr Rumman Chowdhury, data scientist et social scientist, PDG de Humane Intelligence, la désinformation est un phénomène lié à un désir tordu d'ingénierie sociale.

« Il s'agit en fait davantage de créer de faux comptes qui semblent démontrer ou soutenir une perspective particulière, » a-t-elle déclaré à UN News. « Et même d'interagir avec les gens, encore une fois, pour les amener à penser à la désinformation. Maintenant, je pourrais faire partie de l'engagement dans toutes ces méthodes de diffusion de la désinformation. Donc, bien que l'identification des deepfakes fasse partie de la solution, ce n'est pas la solution entière. »

Beaucoup de ceux qui débattent des avantages et des inconvénients de l'IA s'accordent à dire que son potentiel impressionnant ne peut pas être laissé uniquement entre les mains de ceux qui veulent nous manipuler pour le pouvoir ou le profit. Et cela signifie être capable de réguler la technologie et de s'assurer qu'elle est accessible à tous de manière égale.

« Nous devons encadrer ces technologies. Nous devons augmenter les capacités des gouvernements à les encadrer, les capacités des communautés à les utiliser, les capacités des petites et moyennes entreprises à les déployer, afin que l'histoire de l'IA ne soit pas inégale et ne reproduise pas simplement les inégalités, mais assure qu'il y ait inclusivité, » a déclaré Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines à l'UNESCO, l'agence des Nations Unies pour la culture, les sciences et l'éducation.

Représentation de grande envergure

Le sommet de cette année a vu la représentation de plus de 145 pays au siège de l'UIT à Genève, ainsi qu'une communauté en ligne active de plus de 25 000 personnes dans plus de 80 sessions, discours, tables rondes et ateliers marquant le Sommet mondial de l'IA pour le bien.

Avec 10 000 personnes inscrites en personne, l'IA pour le bien a été organisée par l'Union internationale des télécommunications (UIT) – l'agence spécialisée des Nations Unies pour les technologies de l'information et de la communication – en partenariat avec 40 agences sœurs des Nations Unies et co-organisée avec le gouvernement de la Suisse. Le sommet est décrit comme la principale plateforme des Nations Unies promouvant l'IA pour faire progresser la santé, le climat, le genre, la prospérité inclusive, les infrastructures durables et d'autres priorités de développement mondial.

Résultats attendus du sommet :

Les trois principaux résultats attendus du Sommet de l'IA pour le bien sont :

1. Pour les principaux développeurs de normes internationales - l'UIT, l'ISO et l'IEC - de souligner leur engagement à fournir un cadre unifié pour le développement de normes en matière d'IA afin d'assurer la traduction effective des principes de gouvernance de l'IA en normes pratiques et concrètes.

2. Un nouvel accord de collaboration multipartite en soutien au développement coordonné de normes pour le filigrane de l'IA, l'authenticité multimédia et la détection des deepfakes. Des organisations telles que CAI, C2PA, IETF, IEC, ISO et UIT devraient y contribuer.

3. La nouvelle Initiative d'impact de l'IA pour le bien lancée lors du sommet vise à étendre la portée et l'impact de l'application de l'IA pour le développement durable. L'initiative reliera les innovateurs en IA à ceux qui recherchent des solutions aux problèmes pour développer et financer des solutions d'IA prometteuses dans chaque région.


Teleprompter
l'un des objectifs d'un
le sommet mondial de cette semaine aura pour thème Comment puis-je
nous élaborons des normes pour lutter contre la désinformation et les contrefaçons profondes ?
Et vous avez différentes techniques pour cela.
Ainsi, par exemple, vous avez un filigrane,
qui est essentiellement une signature invisible ou une empreinte numérique, si vous voulez,
qui permet de déterminer si un média numérique
il se peut que la photo, l'audio et la vidéo aient été modifiés.
Ou est-ce que c'est moi qui l'ai généré
les deep fakes sont des médias fabriqués,
en utilisant souvent un I qui semble être
réels mais qui sont en fait manipulés ou totalement faux.
A.
Je peux jouer un rôle crucial dans la détection et la prévention des contrefaçons profondes,
mais il est également important que les humains soient
faites preuve de vigilance et vérifiez les informations avant de les partager.
Bien que le pouvoir des deep fake puisse être effrayant, nous ne devons pas laisser la peur nous contrôler.
Au lieu de cela,
nous devons nous concentrer sur le développement et la mise en œuvre d'outils pour détecter et
combattre les contrefaçons profondes et continuer à nous renseigner et à informer les autres sur
l'importance de vérifier les informations.
Et, hé, si tout échoue, souviens-toi juste que Hé,
Je ne peux pas créer un faux portrait de votre personnalité et de votre sens de l'humour uniques.
Vous devez vous assurer que les spectateurs sont au courant
que ce n'est pas réel.
Et encore une fois, il s'agit de l'exigence de transparence que nous avons inscrite dans notre recommandation
pour vous assurer d'informer
personnes
que ce qu'ils font en voyant est la création d'un I
De nombreux pays envisagent d'interdire, euh, les défauts,
euh, pour nous assurer que nous ne le faisons pas, euh,
créer cette confusion, en particulier dans ce domaine très sensible, euh,
année électorale.
La désinformation est également une ingénierie sociale
problème.
À présent,
ce que j'aimerais voir plus
réfléchit à la manière dont les acteurs de la désinformation
utilisent des contrefaçons profondes pour dynamiser leur travail
droite. Et il s'agit en fait davantage de créer
faux comptes qui semblent démontrer ou soutenir un point de vue particulier
et même renouer avec les gens avec gentillesse
de les inciter à réfléchir à la désinformation.
Maintenant a. Je peux participer à toutes ces méthodes de diffusion de désinformation.
Ainsi, si l'identification de Dick fait partie de la solution, elle n'est pas la solution complète.
Comment créer des écosystèmes innovants
mais qui sont également conformes aux droits de l'homme ?
Nécessite des incitations,
investissements,
politiques,
mais cela nécessite également la primauté du droit
que quand quelque chose ne va pas, quelqu'un est responsable
et une autre. Encore une.
Nous devons encadrer ces technologies.
Nous devons renforcer les capacités des gouvernements à
définir les capacités des communautés à les utiliser,
les capacités des petites et moyennes entreprises à les déployer
pour que l'histoire d'un moi ne soit pas inégale.
Et il ne s'agit pas simplement de reproduire les inégalités
mais en veillant à ce qu'il soit inclusif
moi aussi
droite.