Skip to main content

AI-gesprek — Transparantie-opmerking

AI-gesprek — Transparantie-opmerking

Het wettige, ethische en verantwoordelijke gebruik van kunstmatige intelligentie (AI) is een belangrijke prioriteit voor Anthology. Daarom hebben we een Trustworthy AI-programma ontwikkeld en geïmplementeerd. Informatie over ons programma en onze algemene benadering van Trustworthy AI vind je in ons Trust Center. Je kunt een overzicht vinden van Anthology-oplossingen met generatieve AI in onze Lijst van generatieve AI-functies.

Als onderdeel van onze Trustworthy AI-principes zijn we toegewijd tot transparantie, uitlegbaarheid en aansprakelijkheid. Deze pagina is bedoeld om de nodige transparantie en uitleg te bieden om onze klanten te helpen met hun implementatie van AI-gesprek. We raden beheerders aan om deze pagina zorgvuldig te bekijken en ervoor te zorgen dat cursusleiders op de hoogte zijn van de onderstaande overwegingen en aanbevelingen voordat je de functionaliteiten van AI-gesprekken voor je instelling activeert.

Contact met ons opnemen:

  • Voor vragen of feedback over onze algemene benadering van Trustworthy AI of hoe we deze pagina nuttiger kunnen maken voor onze klanten, stuur ons een e-mail op trustworthy-ai@anthology.com.

  • Voor vragen of feedback over de functionaliteit of output van AI Conversation, dien een klantsupportticket in.

Laatst bijgewerkt: 1 november 2024

AI-gefaciliteerde functionaliteiten

AI-gesprek

AI-gesprek is speciaal ontworpen als een nieuwe interactieve activiteit waaraan studenten actief kunnen deelnemen. Cursusleiders kunnen een AI-gesprek maken in hun cursussen, met een overzicht van een onderwerp en een AI-persona, en kunnen het gesprekstype selecteren waaraan studenten willen deelnemen. Binnen de AI Conversation-functionaliteit kunnen instructeurs kiezen uit twee opties: Socratisch Vragen, waarbij de AI-persona studenten aanmoedigt kritisch na te denken door continu te vragen, of Role Play, waarmee studenten een scenario kunnen naspelen met de AI-persona.

Socratische Vragenstelling

Dit is een sturende vraagstelling of socratische oefening. De AI-persona zal de antwoorden van studenten niet bevestigen of afkeuren, maar stelt de studenten een reeks vragen. Aan het einde van het gesprek kunnen studenten een reflectie geven op de activiteit, waarbij de zwakke of sterke punten in hun leerproces worden benadrukt. Ook kunnen ze aangeven of de AI-bot vooroordelen toonde, hallucinaties uitte of onnauwkeurig was. Na het indienen ontvangt de cursusleider een transcriptie van het gesprek en de reflectie, zodat de interacties volledig transparant zijn. Dit is een geweldige manier om een tot nadenken stemmend gesprek te voeren over de cursusonderwerpen zonder individuele 1-op-1's, wat bij grotere of complexere cursussen lastig kan zijn.

AI Conversation biedt docenten de mogelijkheid om een afbeelding te genereren voor de AI Conversation-persona met behulp van generatieve AI.

Deze functionaliteiten zijn onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen worden gewijzigd. Raadpleeg de relevante releaseopmerkingen voor meer informatie.

Rollenspel

Met de functie Rollenspel kunnen cursusleiders gesimuleerde gesprekken starten voor hun studenten door specifieke rollen te definiëren voor zowel de AI-persona als de studenten. Deze interactieve optie verbetert de leer- en trainingservaringen door studenten in realistische scenario's de mogelijkheid te bieden communicatievaardigheden te oefenen en zo actieve leermogelijkheden te bieden. Met aanpasbare persoonlijkheidskenmerken voor de AI-persona en contextuele prompts stimuleert de Role Play-functie boeiende en dynamische uitwisselingen, wat het algehele leerproces verrijkt en kritisch denken stimuleert.

Cursusleiders kunnen de AI-persona aanpassen door er een naam en afbeelding aan toe te wijzen. Ze definiëren ook de persoonlijkheidskenmerken van de AI-persona en selecteren de complexiteit van de antwoorden. De persoonlijkheidseigenschappen die aan de AI-persona worden toegekend in deze Role Play-optie bepalen de reacties en interacties ervan.

Let op: cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en het nagebootste gesprek bekijken, aangezien de persoonlijkheidskenmerken de toon en inhoud van het gesprek aanzienlijk beïnvloeden. Als de cursusleider bijvoorbeeld instelt dat de AI-persona warm en empathisch is, reageert de AI-persona met deze eigenschappen. Als een cursusleider instelt dat de AI-persona controversieel of partijdig is, is de uitvoer van de AI-persona waarschijnlijk controversieel of bevooroordeeld. De AI-persona zal ook niet altijd controversiële, partijdige of gevaarlijke ideeën van studenten uitdagen.

Als onderdeel van het testen van deze functionaliteit heeft Anthology deze resultaten bekeken en besproken om te bepalen of de functionaliteit moet worden beperkt tot het voorkomen van vooroordelen of ongepaste resultaten. We zijn tot de conclusie gekomen dat instellingen en cursusleiders over het algemeen de academische vrijheid moeten hebben om studenten te laten deelnemen aan gesimuleerde gesprekken die controversieel of bevooroordeeld kunnen zijn. Tegelijkertijd begrijpen we dat er limieten zijn aan de resultaten die de AI-persona zou moeten kunnen produceren. Dienovereenkomstig zijn cursusleiders uiteindelijk verantwoordelijk voor de resultaten van AI-gesprekken en de dialoog die studenten zullen tegenkomen via de functie Rollenspel. In onze tests hebben de bestaande geleiderails die zijn geïmplementeerd door OpenAI, Microsoft en Anthology voorkomen dat bepaalde resultaten illegaal waren of anders niet voldeden aan onze Trustworthy AI-standaarden. We blijven deze functie en eventuele gerelateerde klantfeedback monitoren om ervoor te zorgen dat we aanpassingen kunnen aanbrengen die nodig kunnen zijn om te voldoen aan onze Trustworthy AI-standaarden.

De functionaliteit voor AI-gesprek is onderhevig aan de beperkingen en beschikbaarheid van de Azure OpenAI Service en kunnen gewijzigd worden. Raadpleeg de relevante releaseopmerkingen voor meer informatie.

Belangrijkste feiten

tabel 64. Tabel met vragen en antwoorden over hoe Anthology AI benadert

Vraag

Antwoord

Welke functionaliteiten gebruiken AI-systemen?

AI-gegenereerde beelden voor de persona (zoals hierboven beschreven)

Functionaliteiten van AI-gesprek (zoals hierboven beschreven).

Is dit een door derden ondersteund AI-systeem?

Ja, AI-gesprek en door AI gegenereerde afbeeldingen maken gebruik van de Azure OpenAI Service van Microsoft.

Hoe werkt het AI-systeem?

AI-gesprek maakt gebruik van de Azure OpenAI Service van Microsoft om automatisch resultaten te genereren. Dit wordt bereikt door informatie te gebruiken die de instructeur binnen de Socratische of Role Play-optie zelf verstrekt, zoals onderwerp, AI-persona, persoonlijkheidskenmerken en complexiteit, samen met onze prompt om de antwoorden te faciliteren.

Voor een uitleg van hoe de Azure OpenAI Service en de onderliggende grote taalmodellen van OpenAI GPT werken, raadpleeg je de sectie Inleiding van de Transparantie-opmerking van Microsoft en de koppelingen daarin.

Waar wordt het AI-systeem gehost?

Anthology maakt momenteel gebruik van meerdere algemene Azure OpenAI Service-instanties. De primaire instantie wordt gehost in de Verenigde Staten, maar soms kunnen we bronnen in andere locaties gebruiken, zoals Canada, het Verenigd Koninkrijk of Frankrijk om de beste beschikbaarheidsoptie voor de Azure OpenAI Service voor onze klanten te bieden.

Alle cursusgegevens van klanten en invoer van cursusleiders die worden gebruikt voor de invoer en alle resultaten die gegenereerd wordt door AI-gesprek worden opgeslagen in de bestaande Blackboard-database van de klant door Anthology.

Moet je je voor deze functionaliteit aanmelden?

Ja. Beheerders moeten AI-gesprek activeren in de Blackboard-beheerconsole. Instellingen voor AI-gesprek staan in de categorie Building Blocks. Selecteer AI-gesprek en Unsplash. Beheerders kunnen elke functionaliteit afzonderlijk activeren of deactiveren. Beheerders moeten indien nodig ook bevoegdheden voor 'AI-ontwerpassistent gebruiken' toewijzen aan cursusrollen, zoals de rol Cursusleider.

Hoe wordt het AI-systeem getraind?

Anthology is niet betrokken bij de training van de grote taalmodellen die de functionaliteiten van AI-gesprek aandrijven. Deze modellen worden getraind door OpenAI/Microsoft als onderdeel van de Azure OpenAI Service die de functionaliteiten van AI-gesprek aandrijven. Microsoft geeft in de sectie Inleiding van de Transparantie-opmerking van Microsoft en de bijbehorende koppelingen informatie over de wijze waarop de grote taalmodellen worden getraind.

Anthology past de Azure OpenAI Service niet verder aan op basis van gegevens van ons of van onze klanten.

Worden clientgegevens gebruikt voor het (her)trainen van het AI-systeem?

Nee. Microsoft verbindt zich contractueel in de Azure OpenAI-voorwaarden met Anthology geen invoer of uitvoer van de Azure OpenAI te gebruiken voor de (her)training van het grote taalmodel. Dezelfde toezegging wordt gedaan in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.

Hoe gebruikt Anthology persoonlijke informatie bij het aanbieden van het AI-systeem?

Anthology gebruikt de informatie die is verzameld in verband met AI-gesprek alleen voor het verstrekken, onderhouden, en ondersteunen van AI-gesprek en wanneer we de contractuele toestemming hebben om dit te doen in overeenstemming met de toepasselijke wetgeving. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in ons Trust Center.

In het geval dat een AI-systeem ondersteund wordt door een derde partij: hoe gebruikt deze derde partij persoonlijke gegevens?

Er wordt slechts beperkte cursusinformatie gegeven om Microsoft voor de Azure OpenAI Service. Dit mag over het algemeen geen persoonlijke gegevens bevatten (behalve in gevallen waarin persoonlijke gegevens zijn opgenomen in het onderwerp, de velden AI-persona of Persoonlijkheid, of de vragen en antwoorden van de student op de AI-bot). Daarnaast is alle informatie die de cursusleiders hebben toegevoegd aan de vraag toegankelijk.

Microsoft gebruikt geen Anthology-gegevens of Anthology-clientgegevens waartoe ze toegang hebben (als onderdeel van de Azure OpenAI Service) om de OpenAI-modellen te verbeteren, de services van zijn eigen producten of van derden te verbeteren, of om de Azure OpenAI-modellen automatisch te verbeteren voor gebruik door Anthology in hulpmiddelen van Anthology. De modellen zijn staatloos. Microsoft controleert prompts en resultaten voor het filteren van inhoud. Prompts en output worden slechts tot 30 dagen opgeslagen.

Meer informatie over de procedures voor gegevensprivacy met betrekking tot de Azure OpenAI Service vind je in de Microsoft-documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.

Is bij het ontwerp van het AI-systeem rekening gehouden met toegankelijkheid?

Ja, onze engineers voor toegankelijkheid hebben samengewerkt met productteams om ontwerpen te controleren, belangrijke toegankelijkheidsoverwegingen te communiceren en de nieuwe functies specifiek op toegankelijkheid testen. We blijven toegankelijkheid als integraal onderdeel beschouwen van onze Trustworthy AI-aanpak.



Overwegingen en aanbevelingen voor instellingen

Bedoelde praktijkscenario’s

AI-gesprek is alleen bedoeld ter ondersteuning van de hierboven vermelde functionaliteiten. Deze functionaliteiten worden aangeboden aan en bedoeld voor de docenten en studenten van onze klanten, met als doel het leren van studenten te verbeteren via AI-ondersteunde activiteiten.

Toepassingen buiten bereik

Omdat AI-gesprek wordt aangedreven door Microsoft met een zeer breed scala aan praktijkscenario’s, is het mogelijk om de promptfunctionaliteit van AI-gesprek te gebruiken om resultaten op te vragen buiten de bedoelde functionaliteiten. We raden klanten sterk af om AI-gesprek te gebruiken voor enig doel dat buiten het bereik van de bedoelde functionaliteiten valt. Dit kan resulteren in het genereren van uitvoer die niet geschikt zijn voor of compatibel zijn met de Blackboard-omgeving en de maatregelen die we hebben genomen om onnauwkeurige output te minimaliseren.

De onderstaande punten moeten met name worden gevolgd bij het maken van prompts:

  • Gebruik alleen prompts die zijn bedoeld om het gesprek voort te zetten met betrekking tot het toegewezen onderwerp voor AI-gesprek. Reageer bijvoorbeeld op de vragen en prompts van de AI-bot of stel de AI-bot vragen over het toegewezen onderwerp.

  • Gebruik geen prompts om prestaties te verbeteren die verdergaan dan de bedoelde functionaliteit. Je moet bijvoorbeeld niet de prompt gebruiken om bronnen of referenties voor de resultaten aan te vragen. Tijdens onze tests hebben we vastgesteld dat er nauwkeurigheidsproblemen zijn met dergelijke resultaten.

  • Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot schending van intellectuele eigendomsrechten.

  • De resultaten voor gevoelige onderwerpen kunnen beperkt zijn. Azure OpenAI Service is getraind en geïmplementeerd om illegale en schadelijke inhoud te minimaliseren. Dit omvat een functionaliteit voor het filteren van inhoud. Dit kan leiden tot beperkte resultaten of foutberichten wanneer AI-gesprek wordt gebruikt voor cursussen die te maken hebben met gevoelige onderwerpen (bijvoorbeeld voor zelfbeschadiging, geweld, haat of seks). Gebruik geen prompts die in strijd zijn met de voorwaarden van de overeenkomst van je instelling met Anthology of die in strijd zijn met de gedragsregels van Microsoft voor de Azure OpenAI Service en het beleid inzake acceptabel gebruik in de Voorwaarden voor onlineservices van Microsoft.

Voor rollenspel: Instructeurs moeten de persoonlijkheidskenmerken zorgvuldig selecteren en het gesimuleerde gesprek bekijken, omdat deze persoonlijkheidskenmerken de toon en inhoud van het gesprek aanzienlijk beïnvloeden. Zie de functiebeschrijving hierboven voor meer informatie.

Trustworthy AI-principes in de praktijk

Anthology is van mening dat het wettelijke, ethische en verantwoordelijk gebruik van AI een belangrijke prioriteit is. In dit gedeelte wordt uitgelegd hoe Anthology en Microsoft hebben gewerkt om het toepasselijke risico voor het wettelijke, ethische en verantwoordelijk gebruik van AI aan te pakken en de Anthology Trustworthy AI-principes te implementeren. Het stelt ook stappen voor waar onze klanten rekening mee kunnen houden bij het uitvoeren van hun eigen beoordelingen van ethische AI-risico's.

Transparantie en uitlegbaarheid

  • We maken in de Blackboard-beheerdersconsole duidelijk dat AI-gesprek een door AI-gefaciliteerde functionaliteit is.

  • In de gebruikersinterface voor cursusleiders worden de functionaliteiten van AI-gesprek duidelijk gemarkeerd als AI-functionaliteiten. Docenten krijgen de mogelijkheid om het gesprek vooraf te bekijken en uit te proberen voordat het beschikbaar wordt gesteld aan studenten.

  • Naast de informatie in dit document over hoe AI Conversation en de Azure OpenAI Service-modellen werken, verstrekt Microsoft aanvullende informatie over de Azure OpenAI Service in zijn Transparency Note.

  • We moedigen klanten aan om transparant te zijn over het gebruik van AI binnen het AI-gesprek. Bied cursusleiders, studenten en andere belanghebbenden indien nodig de relevante informatie uit dit document en de documentatie die hierin is gekoppeld.

Betrouwbaarheid en nauwkeurigheid

  • We maken in de Blackboard beheerdersconsole duidelijk dat AI Conversation een door AI gefaciliteerde functionaliteit is die onnauwkeurige of ongewenste output kan opleveren en dat dergelijke output altijd beoordeeld moet worden.

  • In de gebruikersinterface, de preview van de docent en studenten die AI Conversation gebruiken, worden geïnformeerd dat antwoorden door AI worden gegenereerd en daarom mogelijk bevooroordeeld of onnauwkeurig zijn.

  • Rollenspel: Instructeurs moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van de AI-persona de reacties en interacties met studenten beïnvloeden en de betrouwbaarheid en nauwkeurigheid van de output kunnen beïnvloeden (inclusief een verhoogd risico op hallucinaties). Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie de functiebeschrijving voor meer details.

  • Zoals nauwkeurig beschreven in de sectie Beperkingen van de Transparantie-opmerking van Azure OpenAI Service, bestaat er een risico van onnauwkeurige resultaten (inclusief hallucinaties). Hoewel de specifieke aard van AI-gesprek en onze implementatie bedoeld is om onnauwkeurigheden te minimaliseren, is het de verantwoordelijkheid van onze klanten om de resultaten te controleren op nauwkeurigheid, vooroordelen, en andere mogelijke problemen. Als er sprake is van problemen, hoeft AI-gesprek niet te worden gebruikt met studenten. Dit is een optionele functie van de cursus naar goeddunken van de docent.

  • Zoals hierboven vermeld, dienen klanten de prompt niet te gebruiken buiten die hiervoor bedoelde praktijkscenario’s, aangezien dit kan leiden tot onnauwkeurige resultaten (bijvoorbeeld als er om referenties en bronnen wordt gevraagd).

  • Als onderdeel van hun communicatie over AI Conversation moeten klanten hun docenten en studenten bewust maken van deze mogelijke beperkingen en risico's.

  • Instructeurs kunnen de extra prompts en instellingen in de generatieve werkstromen gebruiken om meer context te bieden aan AI Conversation en zo de uitlijning en nauwkeurigheid te verbeteren.

  • Klanten kunnen onnauwkeurige output aan ons rapporteren via de kanalen die in de inleiding van deze notitie zijn vermeld.

Eerlijkheid

  • Grote taalmodellen brengen inherent risico's met betrekking tot stereotypering, over- of ondervertegenwoordiging, en andere vormen van schadelijke vooroordelen met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.

  • Gezien deze risico's hebben we zorgvuldig de AI Conversation-functionaliteiten gekozen om gebruikssituaties te vermijden die gevoeliger kunnen zijn voor schadelijke bias of waarbij de impact van zo'n bias groter kan zijn.

  • Rollenspel: Instructeurs moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van de AI-persona de reacties en interacties met studenten beïnvloeden en kunnen resulteren in output die stereotypering, over- of ondervertegenwoordiging en andere vormen van schadelijke vooringenomenheid kunnen omvatten. Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie functiebeschrijving voor meer details.

  • Toch kan niet worden uitgesloten dat een deel van de resultaten door schadelijke vooroordelen kan worden beïnvloed. Zoals hierboven vermeld onder "Nauwkeurigheid" wordt instructeurs gevraagd de activiteit te herzien, wat kan helpen om schadelijke vooroordelen te verminderen.

  • Als onderdeel van hun communicatie over AI Conversation moeten klanten hun docenten bewust maken van deze mogelijke beperking.

  • Klanten kunnen potentiële schadelijke vooroordelen aan ons melden via de contactkanalen die in de introductie van deze opmerking worden vermeld.

Privacy en beveiliging

  • Zoals hierboven is beschreven in de sectie 'Belangrijkste feiten', worden alleen beperkte persoonlijke gegevens gebruikt voor AI-gesprek en zijn deze beperkt toegankelijk voor Microsoft. De sectie beschrijft ook onze toewijding en die van Microsoft met betrekking tot het gebruik van persoonlijke gegevens. Gezien de aard van AI Conversation wordt verwacht dat persoonlijke informatie in de gegenereerde output ook beperkt zal zijn.

  • Ons Blackboard SaaS-product is ISO 27001/27017/27018 en ISO 27701 gecertificeerd. Deze certificeringen omvatten persoonlijke gegevens die met AI-gesprek te maken hebben, die worden beheerd door Anthology. Je kunt meer informatie vinden over de benadering van Anthology ten aanzien van gegevensprivacy in ons Trust Center.

  • Microsoft beschrijft de procedures en toezeggingen voor gegevensprivacy en beveiliging in de documentatie over gegevens, privacy en beveiliging voor Azure OpenAI Service.

  • Ongeacht de toewijding van Anthology en Microsoft met betrekking tot gegevensprivacy en het niet gebruiken van invoer om de modellen te hertrainen, moeten klanten mogelijk hun cursusleiders en studenten adviseren om geen persoonlijke gegevens of andere gevoelige informatie in de prompts of in het gesprek in te voeren.

Veiligheid

  • Grote taalmodellen brengen inherent risico’s met betrekking tot resultaten die ongepast, aanstootgevend, of anderszins onveilig zijn met zich mee. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.

  • Gezien deze risico's hebben we zorgvuldig de AI Conversation-functionaliteiten gekozen om gebruikssituaties te vermijden die gevoeliger kunnen zijn voor onveilige output of waarbij de impact van dergelijke output groter kan zijn.

  • Rollenspel: Instructeurs moeten zich ervan bewust zijn dat de persoonlijkheidskenmerken van de AI-persona de reacties en interacties met studenten beïnvloeden en kunnen resulteren in output die als ongepast, aanstootgevend of anderszins onveilig kan worden beschouwd. Cursusleiders moeten de persoonlijkheidskenmerken zorgvuldig selecteren en een voorbeeld van de conversatie bekijken. Zie functiebeschrijving voor meer details.

  • Toch kan niet worden uitgesloten dat een deel van de resultaten van AI-gesprek onveilig kan zijn. Zoals hierboven vermeld onder 'Nauwkeurigheid' worden instructeurs gevraagd output te beoordelen, wat het risico op onveilige output verder kan verminderen.

  • Als onderdeel van hun communicatie over AI Conversation moeten klanten hun docenten en studenten bewust maken van deze mogelijke beperking.

  • Klanten moeten alle potentiële onveilige resultaten aan ons melden via de kanalen die in de introductie van deze opmerking worden vermeld.

Menselijk beheer

  • Om de risico’s te verminderen met betrekking tot het gebruik van generatieve AI voor onze klanten en hun gebruikers, hebben we opzettelijk klanten de controle gegeven over de functionaliteiten van AI-gesprek. Je moet AI-gesprek daarom inschakelen. Beheerders moeten AI-gesprek activeren en kunnen vervolgens elke functionaliteit afzonderlijk activeren. Ze kunnen ook AI Conversation in het algemeen of elk van de afzonderlijke functionaliteiten deactiveren.

  • AI-gesprek omvat geen geautomatiseerde besluitvorming die wettelijke of anderszins significante gevolgen kan hebben voor studenten of andere personen.

  • We raden klanten aan om dit document inclusief de informatiekoppelingen in dit document zorgvuldig te bekijken om er zeker van te zijn dat ze de mogelijkheden en beperkingen van AI-gesprek en de onderliggende Azure OpenAI Service begrijpen voordat ze AI-gesprek activeren in de productieomgeving.

Aansluiting van waarden

  • Grote taalmodellen brengen inherent risico's met zich mee met betrekking tot resultaten die bevooroordeeld, ongepast, of die anderszins niet overeengestemd zijn met de waarden van Anthology of de waarden van onze klanten en studenten. Microsoft beschrijft deze risico's in de sectie Beperkingen in de Transparantie-opmerking van Azure OpenAI Service.

  • Daarnaast bestaat het risico dat grote taalmodellen (net als elke technologie die een breed doel dient) worden misbruikt voor scenario’s die niet overeenstemmen met de waarden van Anthology, onze klanten of hun eindgebruikers, en die van de samenleving in bredere zin (bijvoorbeeld voor criminele activiteiten, om schadelijke of anderszins ongepaste resultaten te creëren).

  • Gezien deze risico's, hebben we de functionaliteiten van ons AI-gesprek zorgvuldig ontworpen en geïmplementeerd om het risico van niet-afgestemde resultaten te minimaliseren. We hebben ook bewust functionaliteiten uitgesloten die potentieel van groot belang zijn. ·

  • Microsoft controleert ook prompts en resultaten als onderdeel van de functie filteren van inhoud om misbruik en het genereren van schadelijke inhoud te voorkomen.

Intellectueel eigendom

  • Grote taalmodellen brengen inherent risico's met zich mee betrekking tot mogelijke inbreuk op intellectuele eigendomsrechten. De meeste intellectuele eigendomsrechten over de hele wereld hebben niet volledig voorzien en zijn niet aangepast aan de opkomst van grote taalmodellen en de complexiteit van de problemen die zich voordoen door het gebruik ervan. Hierdoor is er op dit moment geen duidelijk juridisch kader of een duidelijke richtlijn voor de kwesties en risico's op het gebied van intellectueel eigendom die voortkomen uit het gebruik van deze modellen.

  • Uiteindelijk is het de verantwoordelijkheid van onze klant om de resultaten van AI-gesprek te controleren op mogelijke inbreuk op intellectueel eigendomsrecht. Houd er rekening mee dat het aanvragen van resultaten in de stijl van een specifieke persoon of het aanvragen van resultaten die eruitziet als items met copyrightrechten of handelsmerken, kan leiden tot resultaten die het risico met zich meebrengen tot hogere schending van intellectuele eigendomsrechten.

Toegankelijkheid

We hebben AI-gesprek ontworpen en ontwikkeld met toegankelijkheid in het achterhoofd, net als bij Blackboard en onze andere producten. Voorafgaand aan de release van AI-gesprek hebben we doelbewust de toegankelijkheid verbeterd van de semantische structuur, navigatie, toetsenbordbediening, labels, aangepaste componenten en afbeeldingswerkstromen, om een paar gebieden te noemen. Toegankelijkheid blijft de prioriteit terwijl we in de toekomst gebruikmaken van AI.

Verantwoordelijkheid

  • Anthology heeft een Trustworthy AI-programma dat is ontworpen om het wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Duidelijke interne verantwoordelijkheid en de systematische ethische AI-review of functionaliteiten, zoals die door AI Conversation worden geboden, zijn belangrijke pijlers van het programma.

  • Voor de levering van AI-gesprek werken we samen met Microsoft om gebruik te maken van de Azure OpenAI Service die de basis vormt voor AI-gesprek. Microsoft heeft een langdurige toewijding aan het ethisch gebruik van AI.

  • Klanten moeten overwegen om intern beleid, procedures en evaluatie van AI-toepassingen van derden te implementeren om hun eigen wettelijke, ethische en verantwoordelijke gebruik van AI te garanderen. Deze informatie is bedoeld om de beoordeling van AI-gesprek door onze klanten te ondersteunen.

Overige informatie