Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Comment développer des systèmes d'IA de manière responsable et à grande échelle ? Découvrez l'IA responsable, les concepts et termes pertinents, et comment implémenter ces pratiques dans les produits.
Développer et faire évoluer l'IA de manière responsable
L'intelligence artificielle (IA) alimente de nombreuses applications et services que les utilisateurs utilisent au quotidien. Avec des milliards d'utilisateurs de l'IA dans des domaines allant de l'entreprise à la santé en passant par l'éducation, il est essentiel que les entreprises s'efforcent de s'assurer que les avantages de ces technologies l'emportent largement sur les inconvénients.
L'IA responsable prend en compte l'impact sociétal du développement et de l'échelle de ces technologies, y compris les avantages et les risques potentiels. Les principes de l'IA de Google constituent un cadre permettant de créer les expériences les plus utiles, sûres et fiables pour tous. Ces principes incluent des objectifs pour les applications d'IA, ainsi que des applications que nous ne poursuivrons pas dans le développement de systèmes d'IA.
Dimensions de l'IA responsable
Lorsque vous développez des solutions d'IA, nous vous recommandons de prendre en compte les dimensions d'IA responsable suivantes:
Équité
Responsabilité
Sécurité
Confidentialité
Nous allons ensuite examiner chacune de ces dimensions.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/14 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/14 (UTC)."],[[["\u003cp\u003eResponsible AI is crucial for mitigating the potential harms and maximizing the benefits of AI technologies, impacting diverse fields like business, healthcare, and education.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's AI Principles guide the development of AI applications to ensure helpful, safe, and trusted user experiences.\u003c/p\u003e\n"],["\u003cp\u003eKey dimensions of Responsible AI include fairness, accountability, safety, and privacy, all of which must be considered when developing AI solutions.\u003c/p\u003e\n"]]],[],null,["# Introduction to Responsible AI\n\n\u003cbr /\u003e\n\nHow do we build AI systems responsibly, at scale? Learn about Responsible AI,\nrelevant concepts and terms, and how to implement these practices in products.\n| **Estimated Read Time:** 10 minutes\n| **Learning objectives:**\n|\n| - Define Responsible AI and relevant dimensions, including fairness, accountability, safety, and privacy.\n| - Describe potential harms and benefits of AI, and the importance of building AI responsibly.\n| - Describe examples of Responsible AI dimensions and how they are implemented.\n\nDevelop and scale AI responsibly\n--------------------------------\n\nArtificial intelligence (AI) powers many apps and services that people use in\ndaily life. With billions of AI users across fields from business to\nhealthcare to education, it is critical that companies work to ensure the\nbenefits of these technologies far outweigh the harms.\n\n**Responsible AI** considers the societal impact of the development and scale of\nthese technologies, including potential harms and benefits. Google's\n[AI Principles](https://ai.google/responsibility/principles/) provide a\nframework to create the most helpful, safe, and trusted experiences for all. The\nprinciples include objectives for AI applications as well as applications we\nwill not pursue in the development of AI systems.\n\nResponsible AI dimensions\n-------------------------\n\nAs you develop AI solutions, we recommend considering the following responsible\nAI dimensions:\n\n- Fairness\n- Accountability\n- Safety\n- Privacy\n\nNext, we'll explore each of these dimensions."]]