Blackboard AI Design Assistant
Het wettige, ethische en verantwoordelijke gebruik van kunstmatige intelligentie (AI) is een belangrijke prioriteit voor Anthology; daarom hebben we een Trustworthy AI-programma ontwikkeld en geïmplementeerd. Informatie over ons programma en onze algemene benadering van Trustworthy AI vind je in ons Trust Center.
Als onderdeel van onze Trustworthy AI-principes zijn we toegewijd tot transparantie, uitlegbaarheid en aansprakelijkheid. Deze pagina is bedoeld om de nodige transparantie en uitlegbaarheid te bieden om onze klanten te helpen met hun implementatie van de AI-ontwerpassistent We raden beheerders aan om deze pagina zorgvuldig te bekijken en ervoor te zorgen dat cursusleiders op de hoogte zijn van de onderstaande overwegingen en aanbevelingen voordat je de functionaliteiten van AI-ontwerpassistent voor je instelling activeert.
Contact met ons opnemen:
Voor vragen of feedback over onze algemene benadering van Trustworthy AI of hoe we deze pagina nuttiger kunnen maken voor onze klanten, stuur ons een e-mail op trustworthy-ai@anthology.com.
Voor vragen of feedback over de functionaliteit of output van de AI Design Assistant kunt u een supportticket voor de klant indienen.
AI-gefaciliteerde functionaliteiten
De AI-ontwerpassistent helpt cursusleiders bij het maken en ontwerpen van nieuwe cursussen. Het is bedoeld om docenten te inspireren en het opstellen van cursussen efficiënter te maken. Anthology is een samenwerking aangegaan met Microsoft om deze functionaliteit te bieden, niet in de laatste plaats omdat Microsoft een langdurige toewijding heeft aan het ethisch gebruik van AI
De AI Design Assistant biedt de volgende generatieve AI-gefasiliteerde functionaliteiten in Blackboard:
Genereer trefwoorden voor de royaltyvrije afbeeldingsservice in Blackboard, aangedreven door Unsplash – Stelt trefwoorden voor voor de Unsplash-zoekopdracht voor efficiëntie.
Genereer leermodules – Ondersteunt docenten door een cursusstructuur voor te stellen.
Genereer afbeeldingen van leermodules – Maakt en stelt afbeeldingen voor voor elke leermodule.
Genereer authentieke opdrachten – Geeft suggesties voor opdrachten binnen je cursuscontext
Genereer toetsvragen en vraagbanken – Inspireert docenten door een reeks vragen in een toets voor te stellen of een vragenbank op te bouwen.
Genereer discussies en dagboeken – Geeft docenten aanwijzingen om de klasinteractie te stimuleren
Contextkiezer – Gebruikt de cursuscontext die je kiest om content te genereren voor veel van onze AI-functies
Taalselector - Selecteert uitvoertaal uit een van de door Blackboard ondersteunde talen
Genereer een beoordelingsrubriek – Stelt een beoordelingsrubriek voor met structuur en criteria ten opzichte van een bepaalde beoordeling, wat de efficiëntie van docenten verhoogt en transparantie bij beoordeling biedt aan studenten.
Genereer een AI-gesprek - Maakt een gesprek op tussen een student en een AI-persona in een Socratische vragenoefening of rollenspelscenario
Genereer documentafbeeldingen – Genereert afbeeldingen om binnen een document te gebruiken, waardoor documenten visueel aantrekkelijker worden voor studenten.
Er zijn tien complexiteitsniveaus voor door AI-gegenereerde inhoud.
Onderbouw basisschool
Middenbouw basisschool
Bovenbouw basisschool
Brugklas voortgezet onderwijs
Onderbouw voortgezet onderwijs
Bovenbouw voortgezet onderwijs
Eerstejaars hoger onderwijs
Hoger onderwijs
Master hoger onderwijs
PhD-niveau
Visit our AI Design Assistant page for instructors to learn more about all its features.
Belangrijk
Deze functionaliteiten zijn onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen worden gewijzigd. Raadpleeg de relevante releaseopmerkingen voor meer informatie.
Belangrijkste feiten
Vraag | Antwoord |
|---|---|
Welke functionaliteiten gebruiken AI-systemen? | Alle hierboven beschreven AI Design Assistant-functionaliteiten (trefwoordgeneratie voor Unsplash, generatie van leermodules, toetsvragen en vraagbanken, beoordelingsrubrieken, afbeeldingen voor Blackboard-documenten). |
Is dit een door derden ondersteund AI-systeem? | Ja, de AI-ontwerpassistent maakt gebruik van de Azure OpenAI Service van Microsoft. |
Hoe werkt het AI-systeem? | De AI-ontwerpassistent maakt gebruik van de Azure OpenAI Service van Microsoft om automatisch resultaten te genereren. Dit wordt gerealiseerd door beperkte cursusinformatie (bijv. cursustitel en cursusbeschrijving) te gebruiken en de Azure OpenAI Service om ingeving te vragen via de Azure OpenAI Service API. Cursusleiders kunnen extra context voor de ingevingen toevoegen voor het genereren van meer op maat gemaakte resultaten. De Azure OpenAI Service genereert de output op basis van de prompt en de inhoud wordt weergegeven in de Blackboard-gebruikersinterface. Voor een gedetailleerde uitleg over hoe de Azure OpenAI Service en de onderliggende OpenAI GPT grote taalmodellen werken, raadpleeg de sectie Introductie van Microsoft's Transparency Note en de daarin verstrekte links. |
Waar wordt het AI-systeem gehost? | Anthology maakt momenteel gebruik van meerdere algemene Azure OpenAI Service-instanties. De primaire instantie wordt gehost in de Verenigde Staten, maar soms kunnen we bronnen in andere locaties gebruiken, zoals Canada, het Verenigd Koninkrijk of Frankrijk om de beste beschikbaarheidsoptie voor de Azure OpenAI Service voor onze klanten te bieden. Alle cursusgegevens van de student die voor de invoer worden gebruikt en alle output die door de AI Design Assistant wordt gegenereerd, worden opgeslagen in de bestaande Blackboard-database van de student door Anthology. |
Moet je je voor deze functionaliteit aanmelden? | Ja. Beheerders moeten de AI Design Assistant activeren in de Blackboard adminconsole. Instellingen voor de AI Design Assistant vallen in de categorie Bouwstenen. Selecteer AI-ontwerpassistent en Unsplash. Beheerders kunnen elke functionaliteit afzonderlijk activeren of deactiveren. Beheerders moeten indien nodig ook bevoegdheden van de AI-ontwerpassistent toewijzen aan cursusrollen, zoals de rol Cursusleider. De privileges die moeten worden toegekend zijn 'Zoek naar afbeeldingen met Unsplash' en 'Gebruik AI Design Assistant.' |
Hoe wordt het AI-systeem getraind? | Anthology is niet betrokken bij de training van de grote taalmodellen die de functionaliteiten van de AI-ontwerpassistent aandrijven. Deze modellen worden getraind door Microsoft als onderdeel van de Azure OpenAI Service die de functionaliteiten van de AI-ontwerpassistent aandrijven. Microsoft geeft in de sectie Inleiding van de Transparantie-opmerking van Microsoft en de bijbehorende koppelingen informatie over de wijze waarop de grote taalmodellen worden getraind. Anthology past de Azure OpenAI Service niet verder aan op basis van gegevens van ons of van onze klanten. |
Worden clientgegevens gebruikt voor het (her)trainen van het AI-systeem? | Nee. Microsoft verbindt zich contractueel in de Azure OpenAI-voorwaarden met Anthology geen invoer of uitvoer van de Azure OpenAI te gebruiken voor de (her)training van het grote taalmodel. Dezelfde toezegging wordt gedaan in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service. |
Hoe gebruikt Anthology persoonlijke informatie bij het aanbieden van het AI-systeem? | Anthology gebruikt de informatie die is verzameld in verband met de AI-ontwerpassistent alleen voor het verstrekken, onderhouden en ondersteunen van de AI-ontwerpassistent en wanneer we de contractuele toestemming hebben om dit te doen in overeenstemming met de toepasselijke wetgeving. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in ons Trust Center. |
In het geval dat een AI-systeem ondersteund wordt door een derde partij: hoe gebruikt deze derde partij persoonlijke gegevens? | Er wordt slechts beperkte cursusinformatie gegeven om Microsoft voor de Azure OpenAI Service. Dit moet in het algemeen geen persoonlijke gegevens bevatten (behalve in gevallen waarin persoonlijke gegevens worden opgenomen in cursustitels, beschrijvingen en gelijkaardige cursusinformatie). Daarnaast is alle informatie die de cursusleiders hebben toegevoegd aan de vraag toegankelijk. Microsoft gebruikt geen Anthology-gegevens of Anthology-clientgegevens waartoe ze toegang hebben (als onderdeel van de Azure OpenAI Service) om de OpenAI-modellen te verbeteren, de services van zijn eigen producten of van derden te verbeteren, of om de Azure OpenAI-modellen automatisch te verbeteren voor gebruik door Anthology in hulpmiddelen van Anthology (de modellen zijn staatloos). Microsoft controleert prompts en resultaten voor het filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen. Prompts en output worden slechts tot 30 dagen opgeslagen. Meer informatie over de procedures voor gegevensprivacy met betrekking tot de Azure OpenAI Service vind je in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service. |
Is bij het ontwerp van het AI-systeem rekening gehouden met toegankelijkheid? | Ja, onze engineers voor toegankelijkheid hebben samengewerkt met productteams om ontwerpen te controleren, belangrijke toegankelijkheidsoverwegingen te communiceren en de nieuwe functies specifiek op toegankelijkheid te testen. We blijven toegankelijkheid als integraal onderdeel beschouwen van onze Trustworthy AI-aanpak. |
Overwegingen en aanbevelingen voor instellingen
Bedoelde praktijkscenario’s
De AI Design Assistant is uitsluitend bedoeld om de hierboven genoemde functionaliteiten te ondersteunen (trefwoordgeneratie voor Unsplash, generatie van leermodules, toetsvragen en vraagbanken, beoordelingsrubrieken, afbeeldingen voor Blackboard-documenten). Deze functionaliteiten worden aangeboden aan en bedoeld voor de docenten van onze klanten om hen te ondersteunen bij het creëren en ontwerpen van cursussen binnen Blackboard.
Praktijkscenario’s buiten bereik
Omdat AI Design Assistant wordt aangedreven door Microsoft's Azure OpenAI Service, die een zeer breed scala aan gebruiksscenario's heeft, is het mogelijk om de promptfunctionaliteit in de AI Design Assistant te gebruiken om output op te vragen die verder gaan dan de bedoelde functionaliteiten. We raden klanten sterk af om AI-ontwerpassistent te gebruiken voor enig doel dat buiten het bereik van de bedoelde functionaliteiten valt. Dit kan resulteren in het genereren van uitvoer die niet geschikt zijn voor of compatibel zijn met de Blackboard-omgeving en de maatregelen die we hebben genomen om onnauwkeurige output te minimaliseren.
De onderstaande punten moeten met name worden gevolgd bij het maken van prompts:
Gebruik alleen prompts die zijn bedoeld om relevantere resultaten van de AI-ontwerpassistent te activeren (bijvoorbeeld meer details geven over de bedoelde cursusstructuur)
Gebruik geen prompts om prestaties te verbeteren die verdergaan dan de bedoelde functionaliteit. Je moet bijvoorbeeld niet de prompt gebruiken om bronnen of referenties voor de resultaten aan te vragen. Tijdens onze tests hebben we vastgesteld dat er nauwkeurigheidsproblemen zijn met dergelijke resultaten.
Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot schending van intellectuele eigendomsrechten.
De resultaten voor gevoelige onderwerpen kunnen beperkt zijn. Azure OpenAI Service is getraind en geïmplementeerd om illegale en schadelijke inhoud te minimaliseren. Dit omvat een functionaliteit voor het filteren van inhoud. Dit kan leiden tot beperkte resultaten of foutberichten wanneer de AI-ontwerpassistent wordt gebruikt voor cursussen die te maken hebben met gevoelige onderwerpen (bijv. zelfbeschadiging, geweld, haat of seks).
Gebruik geen prompts die in strijd zijn met de voorwaarden van de overeenkomst van je instelling met Anthology of die in strijd zijn met de gedragsregels van Microsoft voor de Azure OpenAI Service en het beleid inzake acceptabel gebruik in de Voorwaarden voor onlineservices van Microsoft.
Trustworthy AI-principes in de praktijk
Anthology en Microsoft zijn van mening dat het wettelijke, ethische en verantwoordelijk gebruik van AI een belangrijke prioriteit is. In dit gedeelte wordt uitgelegd hoe Anthology en Microsoft hebben gewerkt om het toepasselijke risico voor het wettelijke, ethische en verantwoordelijk gebruik van AI aan te pakken en de Anthology Trustworthy AI-principes te implementeren. Het stelt ook stappen voor waar onze klanten rekening mee kunnen houden bij het uitvoeren van hun eigen AI- en juridische beoordelingen van ethische AI-risico's van hun implementatie.
Transparantie en uitlegbaarheid
We maken in de Blackboard beheerdersconsole duidelijk dat dit een door AI gefaciliteerde functionaliteit is
In de gebruikersinterface voor cursusleiders worden de functionaliteiten van de AI-ontwerpassistenten duidelijk gemarkeerd als functionaliteiten die ‘Genereren’. Docenten worden ook gevraagd de tekstoutput vooraf te bekijken.
De metadata van de output die door de AI Design Assistant-functionaliteiten wordt gegenereerd, heeft een veld voor automatisch gegenereerde inhoud en voor de vraag of de inhoud vervolgens door de docent is bewerkt.
Naast de informatie in dit document over hoe de AI-ontwerpassistent en de Azure OpenAI Service-modellen werken, biedt Microsoft aanvullende informatie over de Azure OpenAI Service in de Transparantie-opmerking.
We moedigen klanten aan om transparant te zijn over het gebruik van AI binnen de AI-ontwerpassistent. Bied cursusleiders en andere belanghebbenden indien nodig de relevante informatie uit dit document en de documentatie die hierin is gekoppeld.
Betrouwbaarheid en nauwkeurigheid
We maken in de Blackboard beheerconsole duidelijk dat dit een door AI gefaciliteerde functionaliteit is die onnauwkeurige of ongewenste output kan opleveren en dat dergelijke output altijd beoordeeld moet worden.
In de gebruikersinterface kunnen cursusleiders worden gevraagd de tekstuitvoer te controleren op nauwkeurigheid.
Zoals nauwkeurig beschreven in de sectie Beperkingen van de Transparantie-opmerking van Azure OpenAI Service, bestaat er een risico van onnauwkeurige resultaten (inclusief 'hallucinaties'). Hoewel de specifieke aard van de AI-ontwerpassistent en onze implementatie bedoeld is om onnauwkeurigheden te minimaliseren, is het de verantwoordelijkheid van onze klanten om de resultaten te controleren op nauwkeurigheid, vooroordelen en andere mogelijke problemen.
Zoals hierboven vermeld, dienen klanten de prompt niet te gebruiken buiten die hiervoor bedoelde praktijkscenario’s, aangezien dit kan resulteren in onnauwkeurige resultaten (bijv. als er om referenties en bronnen wordt gevraagd).
Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
Cursusleiders kunnen de aanvullende prompts en instellingen in de opeengestelde werkstromen gebruiken om meer context te bieden aan de AI-ontwerpassistent om de overeenstemming en nauwkeurigheid te verbeteren.
Docenten kunnen bestaande werkstromen in Blackboard gebruiken om handmatig de AI Design Assistant-output te bewerken voordat deze aan studenten worden gepubliceerd.
Klanten kunnen alle onnauwkeurige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.
Eerlijkheid
Grote taalmodellen brengen inherent risico's met betrekking tot stereotypering, over- of ondervertegenwoordiging en andere vormen van schadelijke vooroordelen met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
Gezien deze risico's hebben we de functionaliteiten van de AI-ontwerpassistent zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor schadelijke vooroordelen of waarin de impact van dergelijke vooroordelen groter kan zijn.
Toch kan niet worden uitgesloten dat een deel van de resultaten door schadelijke vooroordelen kan worden beïnvloed. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat kan helpen om eventuele schadelijke vooroordelen te voorkomen.
Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
Klanten kunnen potentiële schadelijke vooroordelen aan ons melden via de contactkanalen die in de introductie worden vermeld.
Privacy en beveiliging
Zoals hierboven is beschreven in de sectie 'Belangrijkste feiten', worden alleen beperkte persoonlijke gegevens gebruikt voor de AI-ontwerpassistent en zijn deze beperkt toegankelijk voor Microsoft. De sectie beschrijft ook onze toewijding en die van Microsoft met betrekking tot het gebruik van persoonlijke gegevens. Gezien de aard van de AI-ontwerpassistent zullen naar verwachting ook persoonlijke gegevens in de gegenereerde resultaten beperkt zijn.
Ons Blackboard SaaS-product is ISO 27001/27017/27018 gecertificeerd en werkt momenteel aan certificering volgens ISO 27701. Deze certificeringen omvatten persoonlijke gegevens die met de AI-ontwerpassistenten te maken hebben, die worden beheerd door Anthology. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy en beveiliging in ons Trust Center.
Microsoft beschrijft de procedures en toezeggingen voor gegevensprivacy en beveiliging in de documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.
Ongeacht de toewijding van Anthology en Microsoft met betrekking tot gegevensprivacy en het niet gebruiken van invoer om de modellen te (her)trainen, moeten klanten mogelijk hun cursusleiders adviseren om geen persoonlijke gegevens of andere gevoelige informatie in de prompts in te voeren.
Veiligheid
Grote taalmodellen brengen inherent risico’s met betrekking tot resultaten die ongepast, aanstootgevend of anderszins onveilig zijn met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
Gezien deze risico's hebben we de functionaliteiten van de AI-ontwerpassistent zorgvuldig gekozen om praktijkscenario’s te vermijden die gevoeliger zijn voor onveilige resultaten of waarin de impact van een dergelijke resultaten groter kan zijn.
Toch kan niet worden uitgesloten dat een deel van de resultaten onveilig kan zijn. Zoals hierboven vermeld onder 'Nauwkeurigheid', worden cursusleiders gevraagd de resultaten te controleren, wat verder kan helpen om de risico’s van onveilige resultaten te voorkomen.
Als onderdeel van hun communicatie met betrekking tot de AI-ontwerpassistent, moeten klanten hun cursusleiders bewust maken van deze potentiële beperking.
Klanten moeten alle potentiële onveilige resultaten aan ons melden via de kanalen die in de introductie worden vermeld.
Menselijk beheer
Om de risico’s te verminderen met betrekking tot het gebruik van generatieve AI voor onze klanten en hun gebruikers, hebben we opzettelijk klanten de controle gegeven over de functionaliteiten van de AI-ontwerpassistent. Je moet de AI-ontwerpassistent daarom inschakelen. Beheerders moeten de AI Design Assistant activeren en kunnen vervolgens elke functionaliteit afzonderlijk activeren. Ze kunnen ook de AI-ontwerpassistent als geheel of elk van de afzonderlijke functionaliteiten deactiveren.
Bovendien hebben cursusleiders de controle over de resultaten. Ze moeten de tekstuitvoer doornemen en kunnen de tekstuitvoer bewerken.
De AI-ontwerpassistent omvat geen geautomatiseerde besluitvorming die wettelijke of anderszins significante gevolgen kan hebben voor studenten of andere personen.
We raden klanten aan om dit document inclusief de informatiekoppelingen in dit document zorgvuldig te bekijken om er zeker van te zijn dat ze de mogelijkheden en beperkingen van de AI-ontwerpassistent en de onderliggende Azure OpenAI Service begrijpen voordat ze de AI-ontwerpassistent activeren in de productieomgeving.
Aansluiting van waarden
Grote taalmodellen brengen inherent risico's met zich mee met betrekking tot resultaten die bevooroordeeld, ongepast of die anderszins niet overeengestemd zijn met de waarden van Anthology of de waarden van onze klanten en studenten. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.
Daarnaast bestaat het risico dat grote taalmodellen (net als elke technologie die een breed doel dient) over het algemeen worden misbruikt voor praktijkscenario’s die niet overeenstemmen met de waarden van Anthology, onze klanten of hun eindgebruikers en die van de samenleving in bredere zin (bijvoorbeeld voor criminele activiteiten, om schadelijke of anderszins ongepaste resultaten te creëren).
Gezien deze risico's, hebben we de functionaliteiten van onze AI-ontwerpassistent zorgvuldig ontworpen en geïmplementeerd om het risico van niet-afgestemde resultaten te minimaliseren. We hebben ons bijvoorbeeld gericht op functionaliteiten voor cursusleiders in plaats van voor studenten. We hebben ook bewust functionaliteiten uitgesloten die potentieel van groot belang zijn. ·
Microsoft controleert ook prompts en resultaten als onderdeel van de functie filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen.
Intellectueel eigendom
Grote taalmodellen brengen inherent risico's met zich mee betrekking tot mogelijke inbreuk op intellectuele eigendomsrechten. De meeste intellectuele eigendomsrechten over de hele wereld hebben niet volledig voorzien en zijn niet aangepast aan de opkomst van grote taalmodellen en de complexiteit van de problemen die zich voordoen door het gebruik ervan. Hierdoor is er op dit moment geen duidelijk juridisch kader of een duidelijke richtlijn voor de kwesties en risico's op het gebied van intellectueel eigendom die voortkomen uit het gebruik van deze modellen.
Uiteindelijk is het de verantwoordelijkheid van onze klant om de resultaten van de AI-ontwerpassistent te controleren op mogelijke inbreuk op intellectueel eigendomsrecht. Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot hogere schending van intellectuele eigendomsrechten.
Toegankelijkheid
We hebben het AI Design System ontworpen en ontwikkeld met toegankelijkheid in gedachten, zoals we dat overal in Blackboard en onze andere producten doen. Voorafgaand aan de release van het AI-ontwerpsysteem hebben we doelbewust de toegankelijkheid verbeterd van de semantische structuur, navigatie, toetsenbordbediening, labels, aangepaste componenten en afbeeldingswerkstromen, om een paar gebieden te noemen. Toegankelijkheid blijft de prioriteit terwijl we in de toekomst gebruikmaken van AI.
Verantwoordelijkheid
Anthology heeft een Trustworthy AI-programma dat is ontworpen om het wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Duidelijke interne aansprakelijkheid en de systematische ethische AI-controle of functionaliteiten zoals die van de AI-ontwerpassistent zijn belangrijke steunpilaren van het programma.
Voor de levering van de AI-ontwerpassistent werken we samen met Microsoft om gebruik te maken van de Azure OpenAI Service die de basis vormt voor de AI-ontwerpassistent. Microsoft zet zich al lang in voor het ethische gebruik van AI.
Klanten moeten overwegen om intern beleid, procedures en evaluatie van AI-toepassingen van derden te implementeren om hun eigen wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Deze informatie is bedoeld om de beoordeling van de AI-ontwerpassistent door onze klanten te ondersteunen.
Overige informatie
Anthology's Trustworthy AI-benadering
Pagina over verantwoorde AI van Microsoft
Transparantie-opmerking van Microsoft voor Azure OpenAI Service
Microsoft-pagina over gegevens, privacy en beveiliging voor Azure OpenAI-service
Ondersteunde uitvoertalen voor AI-werkstromen
De AI Design Assistant kan uitvoer in vele talen produceren:
Arabisch
Azerbeidzjaans
Catalaans
Chinees, Vereenvoudigd
Chinees, Traditioneel
Kroatisch
Tsjechisch
Deens
Nederlands
Engels, Amerika
Engels, Australië
Engels, Groot-Brittannië
Frans
Frans, Canada
Duits
Grieks
Hebreeuws
Italiaans
Iers
Japans
Koreaans
Maleis
Noors, Bokmål
Noors, Nynorsk
Pools
Portugees, Brazilië
Portugees, Portugal
Russisch
Sloveens
Spaans
Zweeds
Thai
Turks
Oekraïens
Welsh