Assistant de conception Blackboard AI
L'utilisation légale, éthique et responsable de l'intelligence artificielle (IA) est une priorité pour Anthology ; par conséquent, nous avons développé et mis en œuvre un programme d'utilisation éthique de l'IA. Vous trouverez des informations sur notre programme et notre approche générale de l'IA dans notre Trust Center.
Dans le cadre de nos principes d'utilisation éthique de l'IA, nous tenons à faire preuve de transparence et à nous montrer responsables. Cette page est destinée à fournir aux clients les explications nécessaires à la mise en œuvre de l'outil AI Design Assistant. Nous recommandons aux administrateurs de l'examiner attentivement, et de s'assurer que les professeurs sont au courant des considérations et des recommandations qu'elle contient avant d'activer les fonctionnalités de l'outil AI Design Assistant pour leur établissement.
Comment nous contacter :
Pour toute question ou commentaire sur notre approche générale de l'IA ou sur la façon dont nous pouvons rendre cette page plus utile pour nos clients, veuillez nous envoyer un e-mail à l'adresse suivante : trustworthy-ai@anthology.com.
Pour toute question ou commentaire concernant les fonctionnalités ou les résultats de l'assistant de conception IA, veuillez envoyer un ticket d'assistance client.
Fonctionnalités facilitées par l'IA
AI Design Assistant aide les professeurs à créer et concevoir de nouveaux cours. Il vise à inspirer les professeurs et à rendre la création de cours plus efficace. Anthology a établi un partenariat avec Microsoft pour fournir cette fonctionnalité, notamment parce que Microsoft s'engage depuis en faveur d'une utilisation éthique de l'IA.
L'assistant de conception IA fournit les fonctionnalités génératives suivantes facilitées par l'IA dans Blackboard :
Générez des mots clés pour le service d'images libre de droits de Blackboard optimisé par Unsplash — Suggérez des mots clés à la recherche Unsplash pour plus d'efficacité.
Générer des modules d'apprentissage — Aide les professeurs en leur proposant une structure de cours.
Générer des images de module d'apprentissage — Crée et suggère des images pour chaque module d'apprentissage.
Générez des devoirs authentiques — Propose des suggestions de devoirs en fonction du contexte de votre cours
Générez des questions de test et des banques de questions — Inspirez les professeurs en proposant une série de questions dans un test ou en créant une banque de questions.
Générer des discussions et des journaux — Fournit aux professeurs des instructions pour encourager l'interaction en classe
Sélecteur de contexte — Utilise le contexte du cours que vous choisissez pour générer du contenu pour bon nombre de nos fonctionnalités d'IA
Sélecteur de langue - Sélectionne la langue de sortie parmi toutes les langues prises en charge par Blackboard
Générer une rubrique — Suggère une grille de notation avec structure et critères par rapport à une évaluation donnée, ce qui améliore l'efficacité du professeur et assure la transparence de la notation pour les étudiants.
Générer une conversation basée sur l'IA - Crée une conversation entre un étudiant et un personnage IA dans le cadre d'un exercice de questionnement socratique ou d'un scénario de jeu de rôle
Générer des images de document — Génère des images à utiliser dans un document, afin de le rendre visuellement plus attrayant pour les étudiants.
Il existe dix niveaux de complexité pour le contenu généré par l'IA.
Début de l'école primaire
Fin de l'école primaire
Début du collège
Fin du collège
Début du lycée
Fin du lycée
Division inférieure de premier cycle universitaire
Division supérieure de premier cycle universitaire
Diplômé d'université
Niveau doctorat avancé
Visit our AI Design Assistant page for instructors to learn more about all its features.
Important
Ces fonctionnalités sont soumises aux limitations et à la disponibilité du service Azure OpenAI et sont susceptibles d'être modifiées. Consultez les notes de publication correspondantes pour plus de détails.
Points clés
Question | Réponse |
|---|---|
Quelles fonctionnalités utilisent le système d'IA ? | Toutes les fonctionnalités d'AI Design Assistant décrites ci-dessus (génération de mots clés pour Unsplash, génération de modules d'apprentissage, questions de test et banques de questions, grilles de notation, images pour les documents Blackboard). |
S'agit-il d'un système d'IA pris en charge par un tiers ? | Oui, AI Design Assistant est optimisé par le service Azure OpenAI de Microsoft. |
Comment fonctionne ce système d'IA ? | AI Design Assistant exploite le service Azure OpenAI de Microsoft afin de générer automatiquement du contenu. Il utilise pour ce faire certaines informations de cours (par exemple, le titre du cours, la description du cours) et envoie des invites au service Azure OpenAI sur la base de ces informations via l'API du service Azure OpenAI. Les professeurs peuvent inclure un contexte d'invite supplémentaire pour obtenir des productions plus personnalisées. Le service Azure OpenAI génère la sortie en fonction de l'invite et le contenu apparaît dans l'interface utilisateur de Blackboard. Pour une explication détaillée du fonctionnement du service Azure OpenAI et des grands modèles de langage OpenAI GPT sous-jacents, veuillez consulter la section Introduction de la note de transparence de Microsoft et les liens qui y figurent. |
Où le système d'IA est-il hébergé ? | Anthology utilise actuellement plusieurs instances mondiales du service Azure OpenAI. L'instance principale est hébergée aux États-Unis, mais nous pouvons parfois utiliser des ressources hébergées sur d'autres sites, tels que le Canada, le Royaume-Uni ou la France, afin de fournir la meilleure option de disponibilité à nos clients. Toutes les données de cours du client utilisées pour la saisie et toutes les sorties générées par AI Design Assistant sont stockées dans la base de données Blackboard existante du client par Anthology. |
S'agit-il d'une fonctionnalité facultative ? | Oui. Les administrateurs doivent activer l'assistant AI Design dans la console d'administration Blackboard. Les paramètres de l'assistant de conception AI appartiennent à la catégorie Blocs fonctionnels. Sélectionnez Assistant de conception par IA et Unsplash. Les administrateurs peuvent activer ou désactiver chaque fonctionnalité séparément. Les administrateurs doivent également accorder des privilèges de l'outil AI Design Assistant aux rôles de cours, tels que le rôle Professeur. Les privilèges qui doivent être attribués sont « Rechercher des images à l'aide d'Unsplash » et « Utiliser AI Design Assistant ». |
Comment le système d'IA est-il entraîné ? | Anthology n'est pas impliqué dans l'entraînement des grands modèles de langage qui alimentent les fonctionnalités de l'outil AI Design Assistant. Ces modèles sont entraînés par Microsoft dans le cadre du service Azure OpenAI qui alimente les fonctionnalités de l'outil AI Design Assistant. Des informations à ce sujet sont fournies dans la section Introduction de la Note de transparence de Microsoft et les liens qui y sont fournis. Anthology n'affine pas davantage le service Azure OpenAI à l'aide de ses propres données ni de celles de ses clients. |
Les données des clients sont-elles utilisées pour entraîner ou réentraîner le système d'IA ? | Non. Dans ses conditions d'Azure OpenAI avec Anthology, Microsoft s'engage contractuellement à n'utiliser aucune entrée ou sortie d'Azure OpenAI pour la (re) formation du modèle de langage étendu. Le même engagement est pris dans la documentation Microsoft sur Données, confidentialité et sécurité pour Azure OpenAI Service |
Comment Anthology utilise-t-elle les informations personnelles dans le cadre de la fourniture du système d'IA ? | Anthology n'utilise les informations collectées dans le cadre du fonctionnement de l'assistant de conception par IA que pour fournir, gérer et prendre en charge l'assistant de conception par IA, et pour les cas d'utilisation pour lesquelles Anthology dispose d'une autorisation contractuelle en vertue des lois applicables. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité des données dans notre Trust Center. |
Dans le cas d'un système d'IA pris en charge par un tiers, comment le tiers utilisera-t-il les données personnelles ? | Seules certaines catégories d'informations de cours sont fournies à Microsoft dans le cadre du service Azure OpenAI. En règle générale, ces informations n'incluent pas de données personnelles (sauf si des informations personnelles sont incluses dans les titres, les descriptions et autres informations de cours similaires). En outre, toutes les informations que les professeurs choisissent d'inclure dans l'invite seront accessibles. Microsoft n'utilise pas les données d'Anthology ni celles des clients d'Anthology (partagées dans le cadre du service Azure OpenAI ) à des fins d'amélioration de ses produits ou des produits de tiers, ni pour entraîner automatiquement les modèles OpenAI, y compris les modèles OpenAI Azure utilisés dans les ressources Anthology (ces modèles sont sans état). Microsoft contrôle les invites et les données de sortie dans le cadre de son filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible. Les instructions et les résultats ne sont conservés que pendant 30 jours au maximum. Vous trouverez plus d'informations sur les pratiques de confidentialité des données concernant le service Azure OpenAI dans la documentation de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI. |
L'accessibilité a-t-elle été prise en compte dans la conception du système d'IA ? | Oui, nos ingénieurs spécialistes de l'accessibilité ont collaboré avec les équipes produit pour examiner les conceptions, communiquer les considérations importantes et tester spécifiquement l'accessibilité des nouvelles fonctionnalités. Nous continuerons à considérer l'accessibilité comme une partie intégrante de notre approche éthique de l'IA. |
Considérations et recommandations à l'intention des établissements
Cas d'utilisation prévus
L'assistant de conception IA est uniquement destiné à prendre en charge les fonctionnalités répertoriées ci-dessus (génération de mots clés pour Unsplash, génération de modules d'apprentissage, questions de test et banques de questions, grilles d'évaluation, images pour les documents Blackboard). Ces fonctionnalités sont fournies et destinées aux formateurs de nos clients afin de les aider à créer et à concevoir des cours au sein de Blackboard.
Cas d'utilisation hors champ d'application
Comme AI Design Assistant est alimenté par le service Azure OpenAI de Microsoft, qui propose un très large éventail de cas d'utilisation, il peut être possible d'utiliser la fonctionnalité d'invite de l'assistant de conception AI pour demander des résultats dépassant les fonctionnalités prévues. ce que nous déconseillons vivement à nos clients. Cela peut entraîner la génération de sorties qui ne sont pas adaptées ou compatibles avec l'environnement Blackboard et les mesures que nous avons mises en place pour minimiser les erreurs de sortie.
En particulier, les règles ci-dessous doivent être suivies lors de la création d'une invite.
Utilisez uniquement des invites de façon à obtenir des productions optimales de la part de l'outil AI Design Assistant (par exemple, fournissez le plus de détails possible sur la structure de cours prévue).
N'utilisez pas d'invite pour solliciter des productions qui sortent des fonctionnalités prévues. Par exemple, vous ne devez pas utiliser d'invite pour demander des sources ni des références pour les productions. Lors de nos tests, nous avons déterminé que ces types de productions n'étaient pas suffisamment fiables.
N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées risquent de générer des productions qui ne respectent pas la loi en matière de propriété intellectuelle.
Les productions suggérées pour les sujets sensibles peuvent être limitées. Le service Azure OpenAI a été entraîné et mis en œuvre de manière à minimiser le contenu illégal et nuisible. Cela inclut une fonctionnalité de filtrage de contenu. Cela pourrait entraîner des productions limitées ou des messages d'erreur lorsque l'outil AI Design Assistant est utilisé pour des cours liés à des sujets sensibles (par exemple, l'automutilation, la violence, la haine, le sexe).
N'utilisez pas d'invites qui enfreignent les termes du contrat de votre établissement avec Anthology ou qui enfreignent le Code de conduite pour le service Azure OpenAI et la Politique d'utilisation acceptable des Conditions d'utilisation des services en ligne de Microsoft.
Les principes d'utilisation éthique de l'IA dans la pratique
Anthology et Microsoft sont convaincus que l'utilisation légale, éthique et responsable de l'IA doit rester une priorité. Cette section explique comment Anthology et Microsoft ont collaboré pour faire face aux risques applicables à l'utilisation légale, éthique et responsable de l'IA, et mettre en œuvre les principes d'utilisation éthique de l'IA par Anthology. Elle suggère également des mesures que nos clients peuvent prendre lorsqu'ils entreprennent leurs propres examens juridiques de l'IA et des risques éthiques liés à sa mise en œuvre.
Transparence et explicabilité
Nous indiquons clairement dans la console d'administration Blackboard qu'il s'agit d'une fonctionnalité facilitée par l'IA.
Dans l'interface utilisateur des professeurs, les fonctionnalités de l'outil AI Design Assistant sont clairement identifiées comme des fonctionnalités de « génération ». Les professeurs sont également priés de vérifier la sortie textuelle avant de l'utiliser.
Les métadonnées de la sortie créée par les fonctionnalités de AI Design Assistant comportent un champ pour le contenu généré automatiquement et indiquant si le contenu a ensuite été modifié par le formateur.
Outre les informations fournies dans ce document sur le fonctionnement de l'outil AI Design Assistant et des modèles de service Azure OpenAI, Microsoft fournit des informations supplémentaires sur le service Azure OpenAI dans sa Note de transparence.
Nous encourageons les clients à communiquer clairement au sujet de l'utilisation de l'outil AI Design Assistant, et à fournir à leurs professeurs et aux autres parties prenantes, le cas échéant, les informations pertinentes de ce document et la documentation liée aux présentes.
Fiabilité et précision
Nous indiquons clairement dans la console d'administration Blackboard qu'il s'agit d'une fonctionnalité facilitée par l'IA qui peut produire des résultats inexacts ou indésirables et que ces résultats doivent toujours être revus.
Dans l'interface utilisateur, les professeurs sont invités à examiner la précision du texte produit.
Comme indiqué dans la section Limitations de la Note de transparence du service Azure OpenAI, il existe un risque de production inexacte (y compris des « hallucinations »). Bien que la nature spécifique de l'outil AI Design Assistant et de notre mise en œuvre vise à minimiser les inexactitudes, il est de la responsabilité de notre client d'examiner les productions pour détecter les erreurs, les biais et d'autres problèmes potentiels.
Comme nous l'avons mentionné précédemment, les clients ne doivent pas utiliser d'invite pour solliciter des productions qui sortent des cas d'utilisation prévus, d'autant plus que cela pourrait entraîner des productions inexactes (p. ex., lorsque des références ou des sources sont demandées).
Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
Les professeurs peuvent utiliser les invites et les paramètres supplémentaires dans les workflows génératifs pour fournir plus de contexte à l'outil AI Design Assistant afin d'améliorer son alignement et sa précision.
Les professeurs peuvent utiliser les flux de travail existants dans Blackboard pour modifier manuellement les résultats de l'AI Design Assistant avant de les publier aux étudiants.
Les clients peuvent nous signaler toute production inexacte en utilisant les canaux répertoriés dans l'introduction.
Équité
Les grands modèles de langage présentent intrinsèquement des risques liés aux stéréotypes, à la surreprésentation ou à la sous-représentation, et à d'autres formes de biais préjudiciables. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Design Assistant de façon à éviter les cas d'utilisation les plus sujets à des biais ou pour lesquels l'impact de ces biais pourrait être plus important.
Néanmoins, il ne peut être exclu qu'une partie de la production puisse être affectée par un biais préjudiciable. Comme décrit dans la section « Exactitude » ci-dessus, les professeurs sont invités à examiner les productions, ce qui peut aider à réduire ce genre de problème.
Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
Les clients peuvent nous signaler tout biais potentiellement préjudiciable en utilisant les canaux de contact énumérés dans l'introduction.
Confidentialité et sécurité
Comme décrit dans la section « Faits clés » ci-dessus, une quantité limitée d'informations personnelles sont utilisées par l'outil AI Design Assistant et accessibles à Microsoft. Cette section décrit également notre engagement et celui de Microsoft concernant l'utilisation des données personnelles. Compte tenu de la nature de l'outil AI Design Assistant, les données personnelles contenues dans les productions devraient également être limitées.
Notre produit Blackboard SaaS est certifié ISO 27001/27017/27018 et travaille actuellement à la certification ISO 27701. Ces certifications prennent en compte la gestion des données personnelles dans le cadre des fonctionnalités l'outil AI Design Assistant d'Anthology. Vous trouverez plus d'informations sur l'approche d'Anthology en matière de confidentialité et de sécurité des données dans notre Trust Center.
Microsoft décrit ses pratiques et engagements en matière de confidentialité et de sécurité des données dans la documentation sur les données, la confidentialité et la sécurité pour le service Azure OpenAI.
Indépendamment de l'engagement d'Anthology et de Microsoft en matière de confidentialité des données et de non-utilisation des données pour entraîner et réentraîner les modèles, les clients peuvent conseiller à leurs professeurs de ne pas inclure d'informations personnelles ni d'autres informations confidentielles dans les invites.
Sécurité
Les grands modèles de langage présentent intrinsèquement un risque de productions inappropriées, offensantes ou autrement dangereuses. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
Compte tenu de ces risques, nous avons soigneusement sélectionné les fonctionnalités de l'outil AI Design Assistant pour éviter les cas d'utilisation plus sujets à des productions dangereuses ou pour lesquels l'impact de ces productions pourrait être plus important.
Néanmoins, nous ne pouvons pas exclure la possibilité de productions dangereuses. Comme décrit dans la section « Précision » ci-dessus, les professeurs sont priés d'examiner les productions, ce qui peut contribuer à réduire ce risque.
Dans le cadre de leur communication concernant l'outil AI Design Assistant, les clients doivent informer leur corps enseignant de cette limitation potentielle.
Ils sont également tenus de nous signaler toute production potentiellement dangereuse en utilisant les canaux énumérés dans l'introduction.
Laisser l'humain aux commandes
Afin de minimiser le risque lié à l'utilisation de l'IA générative pour nos clients et leurs utilisateurs, nous donnons intentionnellement aux clients le contrôle des fonctionnalités de l'outil AI Design Assistant. AI Design Assistant est donc une fonctionnalité facultative. Les administrateurs doivent activer l'assistant AI Design et peuvent ensuite activer chaque fonctionnalité séparément. Ils peuvent également désactiver AI Design Assistant dans son ensemble ou chacune des fonctionnalités individuelles.
De plus, les professeurs contrôlent les productions : Ils sont invités à toutes les examiner et peuvent les modifier.
AI Design Assistant n'inclut aucune prise de décision automatisée qui pourrait avoir des conséquences légales ou d'autres conséquences significatives pour les apprenants ou d'autres personnes.
Nous encourageons les clients à lire attentivement ce document, y compris les liens d'information qui y sont fournis, pour s'assurer qu'ils comprennent les capacités et les limites de l'outil AI Design Assistant et du service Azure OpenAI sous-jacent avant d'activer l'assistant dans leur environnement de production.
Alignement avec nos valeurs
Les grands modèles de langage comportent intrinsèquement des risques de productions biaisées, inappropriées ou autrement non alignées avec les valeurs d'Anthology, de nos clients et des apprenants. Microsoft décrit ces risques dans sa section Limitations de la Note de transparence du service Azure OpenAI.
De plus, comme toute technologie servant à des fins générales, ils présentent le risque d'être utilisés pour des cas d'utilisation qui ne correspondent pas aux valeurs d'Anthology, de nos clients ou de leurs utilisateurs finaux, ou aux valeurs de la société de façon plus générale (p. ex., pour des activités criminelles, pour créer des productions nuisibles ou autrement inappropriées).
Compte tenu de ces risques, nous avons soigneusement conçu et mis en œuvre les fonctionnalités de notre outil AI Design Assistant de manière à minimiser le désalignement des productions. Par exemple, nous nous sommes concentrés sur les fonctionnalités destinées aux professeurs plutôt qu'aux apprenants. Nous avons également intentionnellement omis des fonctionnalités à enjeux potentiellement élevés.
Microsoft examine également les invites et les données de sortie dans le cadre de sa fonctionnalité de filtrage de contenu afin d'éviter les abus et la génération de contenu nuisible.
Propriété intellectuelle
Les grands modèles de langage présentent intrinsèquement des risques de violation des droits de propriété intellectuelle. La plupart des lois sur la propriété intellectuelle dans le monde n'ont pas pleinement anticipé, et ne sont pas adaptées à l'émergence de grands modèles de langage ni à la complexité des questions qui découlent de leur utilisation. Par conséquent, il n'existe actuellement aucun cadre juridique ni orientation clairs qui traitent des questions de propriété intellectuelle et des risques qui découlent de l'utilisation de ces modèles.
En fin de compte, il est de la responsabilité de notre client d'examiner les productions générées par AI Design Assistant afin d'éviter toute violation potentielle des droits de propriété intellectuelle. N'oubliez pas que les invites demandant de copier le style d'une personne spécifique, des éléments protégés par des droits d'auteur ou des marques déposées présentent un risque élevé de générer une production qui ne respecte pas la loi en matière de propriété intellectuelle.
Accessibilité
Nous avons conçu et développé le système AI Design en tenant compte de l'accessibilité, comme nous le faisons pour Blackboard et nos autres produits. Avant sa mise à disposition, nous avons délibérément amélioré l'accessibilité de la structure sémantique, de la navigation, des commandes clavier, des étiquettes, des composants personnalisés et des workflows d'images, pour ne citer que quelques domaines. Nous continuerons à accorder la priorité à l'accessibilité à mesure que nous tirerons parti de l'IA à l'avenir.
Responsabilité
Anthology a mis en place un programme afin de garantir une utilisation légale, éthique et responsable de l'IA. Une définition claire des responsabilités en interne et un examen éthique systématique de l'IA et des fonctionnalités telles que celles fournies par AI Design Assistant sont des piliers clés du programme.
Nous nous sommes associés à Microsoft pour tirer parti du service Azure OpenAI qui alimente AI Design Assistant. Microsoft s'engage depuis longtemps en faveur de l'utilisation éthique de l'IA.
Il est recommandé aux clients de mettre en œuvre des politiques, des procédures internes et d'examiner les applications d'IA tierces afin de garantir leur propre utilisation légale, éthique et responsable de l'IA. Ces informations sont fournies pour encourager nos clients à examiner les productions de l'outil AI Design Assistant.
Autres informations
L'approche éthique de l'IA d'Anthology
Page de Microsoft sur l'IA responsable
Note de transparence de Microsoft pour le service Azure OpenAI
Page de Microsoft sur les données, la confidentialité et la sécurité pour le service Azure OpenAI
Langues de sortie prises en charge pour les flux de travaux d'IA
L'AI Design Assistant peut produire des sorties dans de nombreuses langues :
Arabe
Azerbaïdjanais
Catalan
Chinois simplifié
Chinois traditionnel
Croate
Tchèque
Danois
Néerlandais
Anglais (États-Unis)
Anglais (Australie)
Anglais (Royaume-Uni)
Français
Français canadien
Allemand
Grec
Hébreu
Italien
Irlandais
Japonais
Coréen
Malais
Norvégien (Bokmål)
Norvégien (Nynorsk)
Polonais
Portugais, brésilien
Portugais (Portugal)
Russe
Slovène
Espagnol
Suédois
Thaï
Turc
Ukrainien
Gallois