Mises à jour récentes: L'équité en matière de bien-être est supérieure à FFI

Position de FFI sur l'intelligence artificielle

août 2023

L'explosion des capacités de l'IA cette année a été véritablement phénoménale : tout d'un coup, des robots écrivent des essais convaincants, obtenir des notes élevées aux examens SAT et Bar, générer du nouvel art, résoudre des mystères médicaux, apprendre le football, et écrire du code informatique. Les entreprises technologiques s’empressent de déployer l’IA partout et nous espérons la voir intégrée cette année dans la plupart des applications que nous utilisons tous régulièrement. C’est une force avec laquelle nous devrons compter et son impact sera impossible à ignorer.

Nous espérons que l’IA deviendra profondément ancrée dans nos vies et notre travail. Son potentiel pour conséquences involontaires ou malveillantes qui amplifieront les divisions et concentreront le pouvoir sont importants ; il en va de même, selon nous, de sa capacité à faire exactement le contraire. Nous ne pouvons pas rester stratégiquement pertinents, ni pertinents pour nos partenaires, si nous ne luttons pas activement contre les questions et les conséquences de cette situation. Ce n’est pas l’affaire d’une seule personne ou d’un seul département, car l’IA change les règles de notre travail. Cela nécessitera de développer de nouveaux muscles et de nouvelles habitudes, et cela prendra du temps et des ressources financières.

FFI va donc investir pour aider nos équipes :

  • Expérimentez de manière responsable en utilisant des outils basés sur l’IA dans notre travail.
  • Explorer les opportunités d’exploiter l’IA dans nos partenariats et progresser vers notre étoile polaire, et pousser nos partenaires à lutter contre les implications de l’IA dans leur travail.
  • Comprendre et contrecarrer les impacts négatifs potentiels sur notre travail, tels que les deepfakes ou les biais algorithmiques.
  • Participez à des efforts de changement plus vastes avec des alliés qui, comme nous, marchent vers cette nouvelle réalité.

Nous avons également adopté six principes sur la façon dont nous utilisons l’IA :

  • Soyez conscient des préjugés inhérents : Ces outils reflètent les biais des données de formation dont ils ont été alimentés.
  • Protégez votre vie privée et notre vie privée : Ne divulguez rien de confidentiel ou de sensible concernant vous, vos collègues ou notre organisation.
  • Vérifiez le contenu qu'il génère : Ne comptez pas uniquement sur l’IA : elle peut parfois « halluciner » ou plagier.
  • Divulguez quand vous l'avez utilisé : Soyez transparent lorsque vous publiez des travaux qui proviennent en grande partie de l’IA.
  • Suivez nos politiques sur une utilisation responsable : Utilisez le code de conduite de FFI + les directives d'utilisation interdite de la même manière que vous le feriez sur d'autres plateformes technologiques.
  • Partagez vos idées et posez-nous des questions : Si vous avez une idée inspirée ou si vous ne savez pas quoi faire, contactez-nous et parlons-en.

Vous voulez obtenir plus de ressources comme celles-ci dans votre boîte de réception ? Rejoignez notre liste de diffusion.

Autres ressources que vous pourriez aimer