AI Conversation — Note de transparence
AI Conversation — Note de transparence
L'utilisation légale, éthique et responsable de l'intelligence artificielle (IA) est une priorité pour Anthology. Pour cette raison, nous avons développé et mis en œuvre un programme d'IA éthique. Vous trouverez des informations sur notre programme et notre approche générale de l'IA dans notre Trust Center. Vous trouverez un aperçu des solutions Anthology utilisant l'IA générative dans notre Liste des fonctionnalités d'IA générative.
Dans le cadre de nos principes d'utilisation éthique de l'IA, nous tenons à faire preuve de transparence et à nous montrer responsables. Cette page est destinée à fournir aux clients les explications nécessaires à la mise en œuvre de l'outil AI Conversation. Nous recommandons aux administrateurs de la lire attentivement et de vérifier que les professeurs sont au courant des considérations et des recommandations qu'elle contient avant d'activer les fonctionnalités de conversation d'IA pour leur établissement.
Comment nous contacter :
Pour toute question ou commentaire sur notre approche générale en matière d'IA fiable ou sur la manière dont nous pouvons rendre cette page plus utile pour nos clients, veuillez nous envoyer un e-mail à trustworthy-ai@anthology.com
Pour toute question ou commentaire concernant les fonctionnalités ou les résultats d'AI Conversation, veuillez envoyer un ticket d'assistance client.
Dernière mise à jour : 1er novembre 2024
Fonctionnalités facilitées par l'IA
AI Conversation
La conversation d'IA est spécialement conçue en tant que nouvelle activité interactive à laquelle les élèves peuvent participer activement. Les enseignants peuvent créer une conversation d'IA dans leurs cours en décrivant un sujet et une personnalité pour l'IA. Ils seront également en mesure de sélectionner le type de conversation auquel les étudiants doivent participer. Dans la fonctionnalité AI Conversation, les professeurs peuvent choisir entre deux options : le questionnement socratique, dans lequel le personnage IA encourage les étudiants à réfléchir de manière critique grâce à des questions continues, ou le jeu de rôle, qui permet aux étudiants de jouer un scénario avec le personnage IA.
Questionnement socratique
Il s'agit d'une activité de questionnement guidé ou d'un exercice socratique. Le personnage incarné par l'IA ne confirmera ni ne rejettera aucune réponse émise par les étudiants, mais les guidera à travers une série de questions. À la fin de la conversation, les étudiants peuvent émettre une réflexion sur l'activité, en soulignant les faiblesses ou les forces de leur apprentissage, et mentionner si le l'IA a tenu des propos biaisés, irrationnels ou inexacts. Lors de l'envoi, l'enseignant recevra une transcription de la conversation et de la réflexion, ce qui garantit une transparence totale des interactions. C'est un excellent moyen d'engager un dialogue stimulant sur les sujets du cours sans avoir à recourir à des entretiens individuels, ce qui peut être difficile pour les cours plus importants ou plus complexes.
AI Conversation permet aux professeurs de générer une image pour le personnage d'AI Conversation à l'aide de l'IA générative.
Ces fonctionnalités sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.
Jeu de rôle
La fonctionnalité de jeu de rôle permet aux professeurs de configurer des conversations simulées pour leurs étudiants en définissant des rôles spécifiques pour le personnage de l'IA et les étudiants. Cette option interactive permet d'améliorer l'apprentissage et la formation en permettant aux étudiants de mettre en pratique leurs compétences en communication dans des scénarios réalistes. Ils peuvent donc bénéficier d'un apprentissage plus actif. Grâce à des traits de personnalité personnalisables pour le personnage de l'IA et à des instructions contextuelles, la fonction Jeu de rôle favorise des échanges engageants et dynamiques, enrichit l'ensemble du processus d'apprentissage et encourage la pensée critique.
Les professeurs peuvent personnaliser le personnage incarné par l'IA en lui attribuant un nom et une image. Ils peuvent également définir les traits de personnalité du personnage ainsi que la complexité de ses réponses. Les traits de personnalité attribués au personnage de l'IA dans cette option de jeu de rôle façonnent ses réponses et ses interactions.
Remarque : nous invitons les professeurs à redoubler de vigilance lors de la sélection des traits de personnalité et à prévisualiser la conversation simulée, car ces traits influencent de manière significative le ton et le contenu de la conversation. Par exemple, si un professeur configure le personnage de l'IA pour qu'il soit chaleureux et empathique, le ton des réponses correspondra à ces deux traits de personnalité. Si le personnage de l'IA est conçu de sorte à paraître biaisé ou à tenir des propos discutables, les réponses de l'IA seront donc biaisées ou polémiques. Il arrive également que le personnage de l'IA ne conteste pas toujours les idées controversées, biaisées ou dangereuses émises par les étudiants.
Lorsque nous testions cette fonctionnalité, Anthology a examiné et analysé les réponses de l'IA afin de déterminer si la fonctionnalité devait être limitée afin d'éviter tout biais ou toute réponse inappropriée. Nous en avons conclu, après réflexion, que les établissements et les enseignants devraient avoir la liberté de laisser les étudiants participer à des conversations simulées qui peuvent être controversées ou biaisées à des fins académiques. Nous comprenons également que les réponses que le personnage de l'IA est capable de produire ont leurs limites. Par conséquent, les professeurs sont considérés comme principaux responsables des réponses générées par la conversation d'IA et des dialogues auxquels les étudiants seront confrontés avec la fonctionnalité de jeu de rôle. Lors de nos tests, les mesures de sécurité existantes mises en œuvre par OpenAI, Microsoft et Anthology ont empêché toute réponse à caractère illégal ou ne répondant pas à nos principes d'utilisation éthique de l'IA. Nous continuerons à suivre cette fonctionnalité et tout commentaire client connexe afin de nous assurer que nous pouvons apporter les modifications nécessaires pour que cette fonctionnalité réponde à nos normes d'IA digne de confiance.
Les fonctionnalités de la conversation d'IA sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.
Points clés
Question | Réponse |
|---|---|
Quelles fonctionnalités utilisent le système d'IA ? | Images générées par l'IA pour le personnage (comme décrit ci-dessus) Fonctionnalités de conversation d'IA (telles que décrites ci-dessus). |
S'agit-il d'un système d'IA pris en charge par un tiers ? | Oui, AI Conversation et les images générées par l'IA sont optimisées par le service Azure OpenAI de Microsoft. |
Comment fonctionne ce système d'IA ? | AI Conversation tire parti du service Azure OpenAI de Microsoft afin de générer automatiquement du contenu. Ceci est réalisé en utilisant les informations fournies par l'instructeur dans l'option Socratique ou Jeu de rôle elle-même, telles que le sujet, la personnalité de l'IA, les traits de personnalité et la complexité, ainsi que notre invite pour faciliter les réponses. Pour une explication détaillée du fonctionnement du service Azure OpenAI et des grands modèles de langages OpenAI GPT sous-jacents, reportez-vous à la section Introduction de la Note de transparence de Microsoft et aux liens qui y sont fournis. |
Où le système d'IA est-il hébergé ? | Anthology utilise actuellement plusieurs instances mondiales du service Azure OpenAI. L'instance principale est hébergée aux États-Unis, mais nous pouvons parfois utiliser des ressources situées dans d'autres pays, tels que le Canada, le Royaume-Uni ou la France, afin de proposer la meilleure option de disponibilité pour le service Azure OpenAI à nos clients. Toutes les données de cours client et les entrées de professeur utilisées pour les données d'entrée et toutes les productions générées par la conversation d'IA sont stockées dans la base de données Blackboard existante du client (Anthology). |
S'agit-il d'une fonctionnalité facultative ? | Oui. Les administrateurs doivent activer la conversation d'IA dans l'interface de la console d'administration Blackboard. Les paramètres de la conversation d'IA se trouvent sous la catégorie Building Blocks. Sélectionnez AI Conversation et Unsplash. Les administrateurs peuvent activer ou désactiver chaque fonctionnalité séparément. Les administrateurs doivent également accorder des privilèges de l'outil AI Conversation aux rôles de cours, tels que le rôle Professeur. |
Comment le système d'IA est-il entraîné ? | Anthology n'est pas impliqué dans l'entraînement des grands modèles de langage qui alimentent les fonctionnalités de l'outil AI Conversation. Ces modèles sont entraînés par Microsoft dans le cadre du service Azure OpenAI qui alimente les fonctionnalités de l'outil de conversation d'IA. Des informations à ce sujet sont fournies dans la section Introduction de la Note de transparence de Microsoft et les liens qui y sont fournis. Anthology n'affine pas davantage le service Azure OpenAI à l'aide de ses propres données ni de celles de ses clients. |
Les données des clients sont-elles utilisées pour entraîner ou réentraîner le système d'IA ? | Non. Dans ses conditions d'Azure OpenAI avec Anthology, Microsoft s'engage contractuellement à n'utiliser aucune entrée ou sortie d'Azure OpenAI pour la (re) formation du modèle de langage étendu. Le même engagement est pris dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI. |
Comment Anthology utilise-t-elle les informations personnelles dans le cadre de la fourniture du système d'IA ? | Anthology n'utilise les informations collectées dans le cadre du fonctionnement de l'outil AI Conversation que pour fournir, gérer et prendre en charge l'outil AI Conversation, et pour les cas d'utilisation pour lesquelles Anthology dispose d'une autorisation contractuelle en vertue des lois applicables. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité des données dans son Trust Center. |
Dans le cas d'un système d'IA pris en charge par un tiers, comment le tiers utilisera-t-il les données personnelles ? | Seules certaines catégories d'informations de cours sont fournies à Microsoft dans le cadre du service Azure OpenAI. Cela n'inclut généralement pas d'informations personnelles (sauf dans les cas où des informations personnelles sont incluses dans le sujet, les informations de persona ou de personnalité d'IA, ou dans les questions et réponses des étudiants au bot d'IA). En outre, toutes les informations que les professeurs choisissent d'inclure dans l'invite seront accessibles. Microsoft n'utilise pas les données d'Anthology ni celles des clients d'Anthology (partagées dans le cadre du service Azure OpenAI ) à des fins d'amélioration de ses produits ou des produits de tiers, ni pour entraîner automatiquement les modèles OpenAI, y compris les modèles OpenAI Azure utilisés dans les ressources Anthology. Les modèles sont sans état. Microsoft examine les invites et sorties à des fins de filtrage de contenu. Les instructions et les résultats ne sont conservés que pendant 30 jours au maximum. Vous trouverez plus d'informations sur les pratiques de confidentialité des données concernant le service Azure OpenAI dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI. |
L'accessibilité a-t-elle été prise en compte dans la conception du système d'IA ? | Oui, nos ingénieurs spécialistes de l'accessibilité ont collaboré avec les équipes produit pour examiner les conceptions, communiquer les considérations importantes et tester spécifiquement l'accessibilité des nouvelles fonctionnalités. Nous continuerons à considérer l'accessibilité comme une partie intégrante de notre approche éthique de l'IA. |
Considérations et recommandations à l'intention des établissements
Cas d'utilisation prévus
AI Conversation est uniquement destiné à prendre en charge les fonctionnalités énumérées ci-dessus. Ces fonctionnalités sont fournies et destinées aux instructeurs et aux étudiants de nos clients, dans le but d'améliorer l'apprentissage des étudiants grâce à des activités soutenues par l'IA.
Cas d'utilisation hors du champ d'application
Étant donné que l'outil AI Conversation de Learn est optimisé par Microsoft, qui propose un très large éventail de cas d'utilisation, il peut être possible d'utiliser cette fonctionnalité pour solliciter des productions qui sortent des champs d'application prévus, ce que nous déconseillons vivement à nos clients. Cela peut entraîner la génération de sorties qui ne sont pas adaptées ou compatibles avec l'environnement Blackboard et les mesures que nous avons mises en place pour minimiser les erreurs de sortie.
En particulier, les règles ci-dessous doivent être suivies lors de la création d'une invite.
Utilisez uniquement des invites destinées à poursuivre la conversation concernant le sujet affecté à la conversation d'IA. Par exemple, répondez aux questions et aux instructions du robot IA ou posez-lui des questions concernant le sujet assigné.
N'utilisez pas d'invite pour solliciter des productions qui sortent des fonctionnalités prévues. Par exemple, vous ne devez pas utiliser d'invite pour demander des sources ni des références pour les productions. Lors de nos tests, nous avons déterminé que ces types de productions n'étaient pas suffisamment fiables.
N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées risquent de générer des productions qui ne respectent pas la loi en matière de propriété intellectuelle.
Les productions suggérées pour les sujets sensibles peuvent être limitées. Le service Azure OpenAI a été entraîné et mis en œuvre de manière à minimiser le contenu illégal et nuisible. Cela inclut une fonctionnalité de filtrage de contenu. Cela pourrait entraîner des productions limitées ou des messages d'erreur lorsque l'outil de conversation d'IA est utilisé pour des cours liés à des sujets sensibles (par exemple, l'automutilation, la violence, la haine ou le sexe). N'utilisez pas d'invites qui enfreignent les termes du contrat de votre établissement avec Anthology ou qui enfreignent le Code de conduite pour le service Azure OpenAI et la Politique d'utilisation acceptable des Conditions d'utilisation des services en ligne de Microsoft.
Pour le jeu de rôle : les instructeurs doivent sélectionner les traits de personnalité avec soin et prévisualiser la conversation simulée, car les traits de personnalité influencent de manière significative le ton et le contenu de la conversation. Veuillez consulter la description de la fonctionnalité située ci-dessus pour plus d'informations.
Les principes d'utilisation éthique de l'IA dans la pratique
Anthology est convaincue que l'utilisation légale, éthique et responsable de l'IA doit rester une priorité. Cette section explique comment Anthology et Microsoft ont collaboré pour faire face aux risques applicables à l'utilisation légale, éthique et responsable de l'IA, et mettre en œuvre les principes d'utilisation éthique de l'IA par Anthology. Elle suggère également des mesures que nos clients peuvent prendre lorsqu'ils entreprennent leurs propres examens des risques éthiques liés à l'IA.
Transparence et explicabilité
Nous indiquons clairement dans la console d'administration Blackboard que la conversation d'IA est une fonctionnalité facilitée par l'IA.
Dans l'interface utilisateur des professeurs, les fonctionnalités de l'outil de conversation d'IA sont clairement identifiées comme des fonctionnalités d'« IA ». Les professeurs ont la possibilité de prévisualiser la conversation et de l'essayer avant de la mettre à la disposition des étudiants.
Outre les informations fournies dans ce document sur le fonctionnement d'AI Conversation et des modèles de service Azure OpenAI, Microsoft fournit des informations supplémentaires sur le service Azure OpenAI dans sa Note de transparence.
Nous encourageons les clients à communiquer clairement au sujet de l'utilisation de l'IA dans l'outil AI Conversation et à fournir à leurs professeurs, étudiants et autres parties prenantes, le cas échéant, les informations pertinentes de ce document et la documentation liée aux présentes.
Fiabilité et précision
Dans la console d'administration Blackboard, nous indiquons clairement qu'AI Conversation est une fonctionnalité facilitée par l'IA qui peut produire des résultats inexacts ou indésirables et que ces résultats doivent toujours être revus.
Dans l'interface utilisateur, l'aperçu du professeur et les étudiants utilisant AI Conversation sont informés que les réponses sont générées par l'IA et peuvent donc être biaisées ou inexactes.
Jeu de rôle : les professeurs doivent être conscients que les traits de personnalité du personnage IA façonnent ses réponses et ses interactions avec les élèves et peuvent avoir une incidence sur la fiabilité et la précision des résultats (y compris un risque accru d'hallucinations). Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Consultez la description de la fonction pour plus de détails.
Comme indiqué dans la section Limitations de la note de transparence du service Azure OpenAI, il existe un risque de production inexacte (y compris d'« hallucinations »).https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations Bien que la nature spécifique de l'outil AI Conversation et de notre mise en œuvre vise à minimiser les inexactitudes, il est de la responsabilité de notre client d'examiner les productions pour détecter les erreurs, les biais et d'autres problèmes potentiels. Si des problèmes sont constatés, vous pouvez cesser d'utiliser AI Conversation. Il s'agit d'une fonctionnalité optionnelle du cours à la discrétion de l'instructeur.
Comme nous l'avons mentionné précédemment, les clients ne doivent pas utiliser d'invite pour solliciter des productions qui sortent des cas d'utilisation prévus, d'autant plus que cela pourrait entraîner des productions inexactes (p. ex. : lorsque des références ou des sources sont demandées).
Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs et leurs étudiants de ces limites et risques potentiels.
Les professeurs peuvent utiliser les instructions et paramètres supplémentaires des flux de travail génératifs pour fournir plus de contexte à AI Conversation afin d'améliorer l'alignement et la précision.
Les clients peuvent nous signaler toute sortie inexacte en utilisant les canaux répertoriés dans l'introduction de cette note.
Équité
Les grands modèles de langage présentent intrinsèquement des risques liés aux stéréotypes, à la surreprésentation ou à la sous-représentation, et à d'autres formes de biais préjudiciables. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
Compte tenu de ces risques, nous avons choisi avec soin les fonctionnalités d'AI Conversation afin d'éviter les cas d'utilisation susceptibles d'être plus sujets à des biais préjudiciables ou dont l'impact pourrait être plus important.
Jeu de rôle : les professeurs doivent être conscients que les traits de personnalité du personnage IA façonnent ses réponses et ses interactions avec les étudiants et peuvent donner lieu à des résultats qui peuvent inclure des stéréotypes, une surreprésentation ou une sous-représentation et d'autres formes de biais préjudiciables. Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Consultez la description de la fonction pour plus de détails.
Néanmoins, il ne peut être exclu qu'une partie de la production puisse être affectée par un biais préjudiciable. Comme indiqué ci-dessus dans la section « Précision », les instructeurs sont priés de revoir l'activité, ce qui peut contribuer à réduire tout biais préjudiciable.
Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs de cette limitation potentielle.
Les clients peuvent nous signaler tout biais potentiellement préjudiciable en utilisant les canaux de contact énumérés dans l'introduction de cette note.
Confidentialité et sécurité
Comme décrit dans la section « Faits clés » ci-dessus, une quantité limitée d'informations personnelles sont utilisées par l'outil AI Conversation et accessibles à Microsoft. Cette section décrit également notre engagement et celui de Microsoft concernant l'utilisation des données personnelles. Compte tenu de la nature d'AI Conversation, les informations personnelles contenues dans les résultats générés devraient également être limitées.
Notre produit Blackboard SaaS est certifié ISO 27001/27017/27018 et ISO 27701. Ces certifications prennent en compte la gestion des données personnelles dans le cadre des fonctionnalités l'outil AI Conversation d'Anthology. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité et de sécurité des données dans notre Trust Center.
Microsoft décrit ses pratiques et engagements en matière de confidentialité et de sécurité des données dans la documentation sur les données, la confidentialité et la sécurité pour le service Azure OpenAI.
Indépendamment de l'engagement d'Anthology et de Microsoft en matière de confidentialité des données et de non-utilisation des données pour entraîner et réentraîner les modèles, les clients peuvent conseiller à leurs professeurs et étudiants de ne pas inclure d'informations personnelles ni d'autres informations confidentielles dans les invites et conversations.
Sécurité
Les grands modèles de langage présentent intrinsèquement un risque de sorties inappropriées, offensantes ou autrement dangereuses. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
Compte tenu de ces risques, nous avons choisi avec soin les fonctionnalités d'AI Conversation afin d'éviter les cas d'utilisation qui pourraient être plus sujets à des sorties dangereuses ou dont l'impact pourrait être plus important.
Jeu de rôle : les professeurs doivent être conscients que les traits de personnalité du personnage IA façonnent ses réponses et ses interactions avec les étudiants et peuvent donner lieu à des résultats qui peuvent être considérés comme inappropriés, offensants ou dangereux. Les enseignants doivent sélectionner soigneusement les traits de personnalité et prévisualiser la conversation. Consultez la description de la fonction pour plus de détails.
Néanmoins, nous ne pouvons pas exclure la possibilité de réponses dangereuses générées par la conversation d'IA. Comme indiqué ci-dessus dans la section « Précision », les instructeurs sont invités à revoir les résultats, ce qui peut contribuer à réduire le risque de résultats dangereux.
Dans le cadre de leur communication concernant AI Conversation, les clients doivent informer leurs professeurs et leurs étudiants de cette limitation potentielle.
Ils sont également tenus de nous signaler toute sortie potentiellement dangereuse en utilisant les canaux énumérés dans l'introduction de cette note.
Laisser l'humain aux commandes
Afin de minimiser le risque lié à l'utilisation de l'IA générative pour nos clients et leurs utilisateurs, nous donnons intentionnellement aux clients le contrôle des fonctionnalités de l'outil AI Conversation. AI Conversation n'est donc pas une fonctionnalité accessible par défaut. Les administrateurs doivent activer cet outil et peuvent ensuite activer chacune de ses fonctionnalités séparément. Ils peuvent également désactiver AI Conversation dans son ensemble ou chacune des fonctionnalités individuelles.
AI Conversation n'implique aucune prise de décision automatisée qui pourrait avoir des conséquences légales ou d'autres conséquences significatives pour les apprenants ou d'autres personnes.
Nous encourageons les clients à lire attentivement ce document, y compris les liens d'information qui y sont fournis, pour s'assurer qu'ils comprennent les capacités et les limites de l'outil de conversation d'IA et du service Azure OpenAI sous-jacent avant de l'activer dans leur environnement de production.
Alignement avec nos valeurs
Les grands modèles de langage comportent intrinsèquement des risques de sorties biaisées, inappropriées ou autrement non alignées avec les valeurs d'Anthology, de nos clients et des étudiants. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
De plus, comme toute technologie servant à des fins générales, ils présentent le risque d'être utilisés pour des cas d'utilisation qui ne correspondent pas aux valeurs d'Anthology, de nos clients ou de leurs utilisateurs finaux, ou aux valeurs de la société de façon plus générale (par exemple, pour des activités criminelles, pour créer des sorties nuisibles ou autrement inappropriées).
Compte tenu de ces risques, nous avons soigneusement conçu et mis en œuvre les fonctionnalités de notre outil AI Conversation de manière à minimiser le désalignement des productions. Nous avons également intentionnellement omis des fonctionnalités à enjeux potentiellement élevés.
Microsoft examine également les invites et les données de sortie dans le cadre de sa fonctionnalité de filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible.
Propriété intellectuelle
Les grands modèles de langage présentent intrinsèquement des risques de violation des droits de propriété intellectuelle. La plupart des lois sur la propriété intellectuelle dans le monde n'ont pas pleinement anticipé, et ne sont pas adaptées à l'émergence de grands modèles de langage ni à la complexité des questions qui découlent de leur utilisation. Par conséquent, il n'existe actuellement aucun cadre juridique ni orientation clairs qui traitent des questions de propriété intellectuelle et des risques qui découlent de l'utilisation de ces modèles.
En fin de compte, il est de la responsabilité de notre client d'examiner les productions générées par AI Conversation afin d'éviter toute violation potentielle des droits de propriété intellectuelle. N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées présentent un risque élevé de générer une production qui ne respecte pas la loi en matière de propriété intellectuelle.
Accessibilité
Nous avons conçu et développé notre outil de conversation d'IA en gardant l'accessibilité à l'esprit, comme nous le faisons pour Blackboard et tous nos autres produits. Avant sa mise à disposition, nous avons délibérément amélioré l'accessibilité de la structure sémantique, de la navigation, des commandes clavier, des étiquettes, des composants personnalisés et des workflows d'images, pour ne citer que quelques domaines. Nous continuerons à accorder la priorité à l'accessibilité à mesure que nous tirerons parti de l'IA à l'avenir.
Responsabilité
Anthology a mis en place un programme afin de garantir une utilisation légale, éthique et responsable de l'IA. Une responsabilité interne claire et la révision éthique systématique de l'IA ou des fonctionnalités, telles que celles fournies par AI Conversation, sont les principaux piliers du programme.
Nous nous sommes associés à Microsoft pour tirer parti du service Azure OpenAI qui alimente AI Conversation. Microsoft s'engage depuis longtemps en faveur d'une utilisation éthique de l'IA.
Il est recommandé aux clients de mettre en œuvre des politiques, des procédures internes et d'examiner les applications d'IA tierces afin de garantir leur propre utilisation légale, éthique et responsable de l'IA. Ces informations sont fournies pour encourager nos clients à examiner les productions de l'outil AI Conversation.
Autres informations
L'Approche d'IA fiable d'Anthology
Liste des fonctionnalités d'IA générative d'Anthology
Note de transparence de Microsoft pour Azure Vision Service
Page de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure Vision