AI Alt Text Assistant
Åpenhetsnotat
Lovlig, etisk og ansvarlig bruk av kunstig intelligens (AI) er en hovedprioritet for Anthology. Derfor har vi utviklet og implementert et pålitelig AI-program. Du finner informasjon om programmet vårt og den generelle tilnærmingen til pålitelig AI i klareringssenteret vårt , og mer informasjon om generative AI-funksjoner i listen over generative AI-funksjoner.
Som en del av våre pålitelige AI-prinsipper forplikter vi oss til transparens, forklarbarhet og ansvarlighet. Denne siden er ment å gi nødvendig åpenhet og forklaringer for å hjelpe kundene våre med implementeringen av AI Alt Text Assistant. Vi anbefaler at administratorer går nøye gjennom denne siden og sørger for at instruktørene er klar over vurderingene og anbefalingene nedenfor, før du aktiverer funksjonaliteten for AI Alt Text Assistant for institusjonen din.
Slik kontakter du oss:
For spørsmål eller tilbakemelding om vår generelle tilnærming til pålitelig AI eller hvordan vi kan gjøre denne siden mer hjelpsom for våre kunder, vennligst send oss en E-post på [email protected].
For spørsmål eller tilbakemelding om funksjonaliteten eller utdataene til AI Alt Text Assistant, vennligst send inn en kundesupporthenvendelse via Behind the Blackboard.
AI-tilrettelagte funksjoner
Med den alternative AI-tekstassistenten får undervisere forslag til alternativ tekst for bilder som brukes i nettemnene deres via arbeidsflyten for Ally-undervisertilbakemelding. Det er ment å inspirere undervisere og gjøre tilgjengelighetsreparasjoner mer effektive. Anthology har inngått samarbeid med Microsoft for å tilby denne funksjonaliteten, ikke minst fordi Microsoft har en langvarig forpliktelse til etisk bruk av AI.
AI Alt Text Assistant har følgende generative AI-tilrettelagte funksjoner:
Generer en alternativ tekst for bilder. Foreslår en alternativ tekst i Ally-instructor-tilbakemeldingen når undervisere fikser bilder uten alternativ tekst.
Viktig
Disse funksjonene er underlagt begrensningene og tilgjengeligheten til Azure AI Vision-tjenesten og kan endres. Se relevante versjonsmerknader for mer informasjon.
Viktige fakta
Spørsmål | Svare |
|---|---|
Hvilke Ally-funksjonaliteter bruker AI-systemer? | Forslag til alternativ tekst via AI i Ally-undervisertilbakemeldingspanelet, når et bilde har blitt flagget av Ally fordi det ikke har alternativ tekst. |
Er dette et tredjepartsstøttet AI-system? | Ja – AI Alt Text Assistant drives av Microsofts Azure Vision Tjeneste. |
Hvordan fungerer AI-systemet? | Alternativ AI-tekstassistent bruker Microsoft Azure Vision-tjeneste for å generere utdata automatisk. Dette oppnås ved å bruke bildet til å generere en alternativ tekst som sendes via Azure Vision-API. Ingen ytterligere informasjon brukes (f.eks. kurstittel, emnebeskrivelse). Bilder brukes ikke til å lære opp Microsoft Azure Vision-modeller, og Azure Vision-tjenesten genererer utdataene basert på hvert bilde som lastes opp til alternativ AI-tekstassistent. Ingen ledetekster brukes. Merk at for sluttbrukere som har sine LMS-forekomster konfigurert på andre språk enn engelsk, blir utdataene fra alternativ AI-tekst oversatt ved hjelp av AWS Translate. For en detaljert forklaring på hvordan Azure AI Vision-språkmodellene fungerer, vennligst se Introduksjonsdelen i Microsofts Transparency Note og lenkene som er gitt der. |
Hvor er AI-systemet drevet? | Anthology bruker for øyeblikket flere globale forekomster av Azure Vision Service. Den primære forekomsten drives i USA, men noen ganger kan vi bruke ressurser andre steder, for eksempel Vest-Europa og APAC, for å tilby det beste tilgjengelighetsalternativet for Azure AI Vision for kundene våre. Alle klientutdata som genereres av AI Alt Text Assistant, lagres i hver klients eksisterende Ally-database som administreres av Anthology. |
Er dette en valgfri funksjonalitet? | Ja. Administratorer må aktivere den alternative AI-tekstassistenten i LMS Ally-konfigurasjonsalternativene. Velg AI-generering av alternative beskrivelser for bilder under Funksjoner-kategorien. Administratorer kan aktivere eller deaktivere denne funksjonaliteten når som helst. |
Hvordan trenes AI-systemet? | Anthology er ikke involvert i opplæring av modeller som driver de alternative AI-tekstgjenkjenningsfunksjonene. Disse modellene er opplært av Microsoft som en del av Azure Vision-tjenesten. Microsoft gir informasjon om hvordan de store språkmodellene læres i introduksjonsdelen av Microsofts åpenhetsmerknad og koblingene i den. Anthology fininnstiller ikke Azure Vision-tjenesten ytterligere ved hjelp av våre egne eller våre kunders data. |
Brukes klientdata til å lære opp igjen AI-systemet? | Nei. Microsoft forplikter seg kontraktsmessig i vilkårene for Azure Vision med Anthology til ikke å bruke inndata i, eller utdata fra, Azure Vision for (ny)opplæring av den store språkmodellen. Den samme forpliktelsen gis i Microsoft-dokumentasjonen om Data, personvern og sikkerhet for Azure Vision-tjeneste. Kun ferdigbygde modeller brukes. |
Hvordan bruker Anthology Ally personlig informasjon med hensyn til levering av AI Alt Text Assistant-systemet? | Anthology Ally bruker kun bilder som er samlet inn i forbindelse med alternativ AI-tekstassistent for å levere, vedlikeholde og støtte alternativ AI-tekstassistent. Du finner mer informasjon om Anthologys tilnærming til datavern i Anthologs klareringssenter. Bare bilder brukes til å drive denne funksjonen. Ingen ytterligere informasjon deles med Microsoft Azure Vision Tjeneste. Microsoft bruker ikke Anthology-data eller Anthology-klientdata de har tilgang til (som en del av Azure Vision-tjenesten) til å forbedre Vision-modellene, til å forbedre egne eller tredjeparts produkttjenester, og heller ikke til automatisk å forbedre Azure Vision-modellene for Anthology-bruk i Anthologys ressurs (modellene er tilstandsløse). Du finner mer informasjon om personvernpraksisene til Azure Vision-tjenesten i Microsoft dokumentasjonen om data, personvern og sikkerhet for Azure Vision-tjenesten. |
Ble tilgjengelighet vurdert i utformingen av AI Alt Text-systemet? | Ja, tilgjengelighetsingeniørene våre har samarbeidet med produktteam for å gjennomgå design, kommunisere viktige tilgjengelighetshensyn og teste de nye funksjonene spesifikt med tanke på tilgjengelighet. Vi vil fortsette å vurdere tilgjengelighet som en integrert del av vår pålitelige AI-tilnærming. |
Vurderinger og anbefalinger for institusjoner
Tiltenkte brukstilfeller
AI Alt Text Assistant er bare ment å støtte funksjonaliteten som er oppført ovenfor. Disse funksjonene leveres til og er ment for våre kunders instruktører for å støtte dem med å fikse bilders tilgjengelighetsproblemer flagget av Ally.
Brukstilfeller utenfor omfanget
AI Alt Text Assistant er ikke ment og er heller ikke garantert å gjøre hvert bilde tilgjengelig med perfekt alternativ tekst, da det fortsatt er opp til underviseren å justere eller godkjenne den alternative teksten basert på konteksten til innholdet i kurset.
Pålitelige AI-prinsipper i praksis
Anthology og Microsoft mener at lovlig, etisk og ansvarlig bruk av AI er en nøkkelprioritet. Denne delen forklarer hvordan Anthology og Microsoft har jobbet for å håndtere den nåværende risikoen for juridisk, etisk og ansvarlig bruk av AI og implementere Anthologys pålitelig AI-prinsipper. Det foreslår også trinn kundene våre kan vurdere når de foretar egen AI og juridiske vurderinger av etiske AI-risikoer ved implementeringen.
Transparens og forklarbarhet
Vi gjør det tydelig i Ally-administrasjonskonfigurasjonsalternativene at dette er en AI-tilrettelagt funksjonalitet
I brukergrensesnittet for undervisere er funksjonene i AI Alt Text Assistant tydelig merket som «Generative» funksjonaliteter. Undervisere blir også bedt om å gå gjennom tekstutdataene før bruk. · Metadataene for utdataene som opprettes av AI Alt Text Assistant, vises i hver klients Ally-bruksrapport med et felt for automatisk generert innhold. Det viser også om utdataene senere ble redigert av underviseren.
Foruten informasjonen i dette dokumentet om hvordan alternativ AI-tekstassistent og Azure Vision-tjenestemodellene fungerer, gir Microsoft tilleggsinformasjon om Azure Vision-tjenesten i gjennomsiktighetsmerknaden.
Vi oppfordrer kunder til å være åpne om bruken av AI i AI Alt Text Assistant og gi undervisere og andre interessenter relevant informasjon fra dette dokumentet og dokumentasjonen det er lenket til her.
Pålitelighet og nøyaktighet
Vi gjør det tydelig i Ally-administrasjonskonfigurasjonsalternativer og vilkår for bruk at dette er en AI-tilrettelagt funksjonalitet som kan gi unøyaktige eller uønskede utdata, og at slike utdata alltid skal gjennomgås av underviseren.
I brukergrensesnittet blir undervisere bedt om å gå gjennom tekstutdataene for å påse at teksten er nøyaktig.
Som beskrevet i Begrensninger-delen i gjennomsiktighetsmerknaden for Azure Vision-tjenesten, er det en risiko for unøyaktige utdata. Selv om den spesifikke arten til alternativ AI-tekstassistent og implementeringen vår er ment å minimere unøyaktighet, er det kundens ansvar å gjennomgå utdataene for nøyaktighet, skjevhet og andre potensielle problemer.
Som en del av kommunikasjonen deres angående AI Alt Text Assistant, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
Undervisere kan bruke eksisterende Ally-grensesnitt for å redigere alternativ AI-tekstassistent-utdata manuelt før de publiserer utdataene til studentene.
Kunder kan rapportere eventuelle unøyaktige utdata til oss ved å bruke kanalene som er oppført i introduksjonen.
Rettferdighet
Store språkmodeller er i en selv innebygd risiko knyttet til stereotypier, over-/underrepresentasjon og andre former for skadelige fordommer. Microsoft beskriver disse risikoene i delen Begrensninger i gjennomsiktighetsmerknaden for Azure Vision-tjenesten.
På grunn av disse risikoene har vi nøye valgt funksjonalitetene for AI Alt Text Assistant for å unngå brukstilfeller som kan være mer utsatt for skadelig skjevhet eller der virkningen av slik skjevhet kan være mer betydelig.
Det kan derimot ikke utelukkes at noe av produksjonen kan være påvirket av skadelige skjevheter. Som nevnt ovenfor under "Nøyaktighet", blir undervisere bedt om å gjennomgå utdata, noe som kan bidra til å redusere skadelig skjevhet.
Som en del av kommunikasjonen deres angående AI Alt Text Assistant, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
Kunder kan rapportere eventuelle potensielt skadelige skjevheter til oss ved å bruke kontaktkanalene som er oppført i introduksjonen.
Personvern og sikkerhet
Som beskrevet i delen «Nøkkelfakta»-delen over, er det bare bildet som brukes til AI Alt Text Assistant og er tilgjengelig for Microsoft. Delen beskriver også vår og Microsoft sin forpliktelse angående bruken av personlig informasjon.
Ally er ISO 27001/27017/27018/27701-sertifisert. Disse sertifiseringene inkluderer alternativ AI-tekstassistentrelaterte utdata som administreres av Anthology. Du finner mer informasjon om Anthologys tilnærming til personvern og sikkerhet i vårt klareringssenter.
Microsoft beskriver sine praksiser og forpliktelser for datavern og sikkerhet i dokumentasjonen om data, personvern og sikkerhet for Azure Vision-tjeneste.
Uavhengig av Anthologys og Microsofts forpliktelse til personvern og til å ikke bruke innspill til å lære (opp igjen) modellene, kan kunder råde sine undervisere til ikke å inkludere personlig informasjon eller annen konfidensiell informasjon i bildene.
Sikkerhet
Store språkmodeller utgjør i seg selv en risiko for utdata som kan være upassende, støtende eller på andre måter utrygge. Microsoft beskriver disse risikoene i delen Begrensninger i gjennomsiktighetsmerknaden for Azure Vision-tjenesten.
På grunn av disse risikoene har vi nøye valgt AI Alt Text Assistant-funksjonalitetene for å unngå brukstilfeller som kan være mer utsatt for usikre utdata, eller der virkningen av slike utdata kan være mer betydelig.
Det kan likevel ikke utelukkes at noe av produksjonen kan være usikker. Som nevnt ovenfor under «Nøyaktighet», blir undervisere bedt om å gå gjennom utdataene, noe som kan bidra til å ytterligere redusere risikoen for usikre utdata.
Som en del av kommunikasjonen deres angående AI Alt Text Assistant, bør kunder gjøre underviserne sine oppmerksomme på denne potensielle begrensningen.
Kunder bør rapportere potensielt usikre utdata til oss ved å bruke kanalene som er oppført i introduksjonen.
Mennesker har kontroll
For å minimere risikoen relatert til bruken av generativ AI for våre kunder og deres brukere, gir vi bevisst klienter kontroll over AI Alt Text Assistant-funksjonalitet. AI Alt Text Assistant er derfor en valgfri funksjon. Administratorer kan aktivere eller deaktivere AI Alt Text Assistant når som helst.
Undervisere har dessuten kontroll over utdataene, noe som betyr at de blir bedt om å gjennomgå tekstutdata og kan redigere tekstutdata etter behov.
AI Alt Text Assistant inkluderer ingen automatisert beslutningstaking som kan ha en juridisk eller annen betydelig effekt på elever eller andre personer.
Vi oppfordrer kunder til å lese nøye gjennom dette dokumentet, inkludert informasjonslenkene som er angitt her, for å være trygge på at de forstår egenskapene og begrensningene til alternativ AI-tekstassistent og den underliggende Azure Vision-tjenesten, før de aktiverer alternativ AI-tekstassistent.
Innretting av verdier
Store språkmodeller har i seg selv innebygd risiko med hensyn til produksjon som er skjev, upassende eller på annen måte ikke i tråd med Anthology-verdier eller verdiene til våre kunder og elever. Microsoft beskriver disse risikoene i delen Begrensninger i gjennomsiktighetsmerknaden for Azure Vision-tjenesten.
I tillegg har store språkmodeller (som alle teknologier med brede formål) en risiko for at de generelt kan misbrukes til brukstilfeller som ikke samsvarer med verdiene til Anthology, våre kunder eller deres sluttbrukere og samfunnets verdier generelt (f.eks. for kriminelle aktiviteter, for å skape skadelige eller på annen måte upassende utdata).
På grunn av disse risikoene har vi nøye utformet og implementert AI Alt Text Assistant-funksjoner på en måte som minimerer risikoen for feiljusterte utdata. Vi har for eksempel fokusert på funksjonalitet for undervisere i stedet for studenter. Vi har også tilsiktet utelatt funksjonaliteter med potensielt høy innsats.
Immaterielle rettigheter
Store språkmodeller utgjør i seg selv risiko knyttet til potensielle krenkelser av immaterielle rettigheter. De fleste åndsrettslover i verden har ikke fullt ut forutsett eller tilpasset seg fremveksten av store språkmodeller og kompleksiteten i problemene som oppstår gjennom bruken av dem. Derfor finnes det for øyeblikket ikke noe klart juridisk rammeverk eller veiledning som adresserer åndsrettsproblemer og risikoer som oppstår ved bruk av disse modellene.
Når alt kommer til alt, er det kundens ansvar å gjennomgå utdata generert av AI Alt Text Assistant for eventuelle potensielle krenkelser av immaterielle rettigheter.
Tilgjengelighet
Vi designet og utviklet AI Alt Text Assistant med tilgjengelighet i tankene på samme måte som vi gjør i Learn og de andre produktene våre. Før utgivelsen av AI Alt Text Assistant har vi målrettet forbedret tilgjengeligheten for semantisk struktur, navigasjon, tastaturkontroller, etiketter, egendefinerte komponenter og bildearbeidsflyter, for å nevne noen områder. Vi vil fortsatt prioritere tilgjengelighet når vi bruker AI i fremtiden.
Ansvarlighet
Anthology har et pålitelig AI-program som er utviklet for å sikre lovlig, etisk og ansvarlig bruk av AI. Tydelig intern ansvarliggjøring og den systematiske etiske AI-gjennomgangen eller funksjonaliteter som de som tilbys av alternativ AI-tekstassistent er viktige pilarer i programmet.
For å levere alternativ AI-tekstassistent samarbeidet vi med Microsoft for å utnytte Azure Vision-tjenesten som driver alternativ AI-tekstassistent. Microsoft hadde en langvarig forpliktelse til etisk bruk av AI.
Kunder bør vurdere å implementere interne retningslinjer, prosedyrer og gjennomgang av tredjeparts AI-applikasjoner for å sikre egen juridisk, etisk og ansvarlig bruk av AI. Denne informasjonen gis for å støtte våre kunders gjennomgang av AI Alt Text Assistant.
Mer informasjon
Anthologys pålitelige AI-tilnærming
Anthologys liste over generative AI-funksjoner
Microsofts ansvarlige AI-side
Microsofts side om Data, personvern og sikkerhet for Azure Vision-tjeneste
Vilkår for bruk av AI Alt Text Assistant
Ally AI Alt Text Assistant bruker Microsofts generative AI-modeller fra Azure Vision Services.
Viktig
Denne funksjonen kan gi uønskede eller unøyaktige utdata. Det er ditt og instruktørenes ansvar å gå gjennom alle utdata og korrigere eller endre dem etter behov. Vennligst merk at ingen klientdata brukes til å trene, omtrene eller forbedre Azure Visions generative AI-modeller. Bilder lastet opp til AI Alt Text Assistant vil bli sendt til Azure AI Vision Tjeneste-serverne som kan være plassert utenfor hostingen din.
Du finner mer informasjon om risikoer og begrensninger for funksjonen i standard sluttbrukerdokumentasjon.
Ved å aktivere denne funksjonen bekrefter du at du samtykker til tilleggsvilkårene på vegne av institusjonen, og at du har lest og forstått informasjonen om risiko og begrensninger innenfor og/eller henvist til i standarddokumentasjonen for sluttbrukere som det henvises til ovenfor.