AI Alt Text Assistant
Nota de Transparência
O uso legítimo, ético e responsável da inteligência artificial (IA) é uma prioridade fundamental para a Anthology. Portanto, desenvolvemos e implementamos um programa de IA confiável. Você pode encontrar informações sobre nosso programa e nossa abordagem geral para IA confiável em nosso Trust Center e mais informações sobre recursos de IA generativa em Listar recursos de IA generativa.
Como parte dos nossos princípios de IA confiável, nos comprometemos com a transparência, explicabilidade e responsabilidade. Esta página tem como objetivo oferecer a transparência e as explicações necessárias para ajudar nossos clientes com a implementação do AI Design Assistant. Recomendamos que os administradores examinem cuidadosamente esta página e se certifiquem de que os instrutores estejam cientes das considerações e recomendações abaixo antes da ativação das funcionalidades do AI Alt Text Assistant na sua instituição.
Como entrar em contato conosco:
Para perguntas ou comentários sobre nossa abordagem geral à Trustworthy AI ou como podemos tornar esta página mais útil para nossos clientes, envie um e-mail para [email protected].
Para dúvidas ou comentários sobre a funcionalidade ou saída do Assistente de Texto Alternativo de IA, abra um chamado de suporte ao cliente via Behind the Blackboard.
Funcionalidades assistidas por IA
O AI Alt Text Assistant oferece aos instrutores sugestões de texto alternativo para imagens utilizadas nos cursos on-line por meio do fluxo de trabalho Comentários do instrutor do Ally. O intuito é inspirar os instrutores e tornar as correções de acessibilidade mais eficientes. A Anthology fez parceria com a Microsoft para fornecer essa funcionalidade, não só porque a Microsoft tem um compromisso de longa data com o uso ético da IA.
O AI Alt Text Assistant oferece as seguintes funcionalidades assistidas por IA generativa:
Gerar um texto alternativo para imagens. Sugerir um texto alternativo nos comentários do Ally Instructor quando os instrutores estiverem fixando imagens sem texto alternativo.
Importante
Essas funcionalidades estão sujeitas às limitações e à disponibilidade do serviço AI Vision do Azure, bem como estão sujeitas a alterações. Verifique as notas de lançamento relevantes para saber mais.
Principais fatos
Pergunta | Resposta |
|---|---|
Que funcionalidades do Ally utilizam sistemas de IA? | Sugestão de texto alternativo por IA no Painel de comentários do instrutor do Ally, quando uma imagem for marcada pelo Ally por não ter texto alternativo. |
Este sistema de IA é compatível com sistemas de terceiros? | Sim – O Assistente de Texto Alternativo de IA é alimentado pelo serviço Azure Vision da Microsoft. |
Como o sistema de IA funciona? | O AI Alt Text Assistant aproveita o serviço Vision do Azure da Microsoft para gerar resultados automaticamente. Isso é feito utilizando a imagem para gerar um texto alternativo enviado por meio da API Vision do Azure. Nenhuma informação adicional é utilizada (por exemplo, título do curso, descrição do curso). As imagens não são utilizadas para treinar os modelos Vision do Azure da Microsoft e o serviço Vision do Azure gera a saída com base em cada imagem carregada para o AI Alt Text Assistant. Nenhum aviso é usado. Usuários finais com instâncias LMS configuradas em outros idiomas além do inglês terão a saída do AI Alt Text traduzida pelo AWS Translate. Para uma explicação detalhada sobre como os modelos de linguagem Azure AI Vision funcionam, consulte a seção Introdução da Nota de Transparência da Microsoft e os links fornecidos nela. |
Onde o sistema de IA fica hospedado? | A Anthology atualmente usa várias instâncias globais do serviço Vision do Azure. A instância principal está hospedada nos Estados Unidos. Todavia, às vezes, podemos utilizar recursos em outros locais, como Europa Ocidental ou APAC para oferecer aos clientes a melhor opção de disponibilidade do Azure AI Vision. Todos os resultados de clientes gerados pelo AI Alt Text Assistant são armazenados no banco de dados do Ally de cada cliente gerenciado pelo Anthology. |
Essa funcionalidade é opcional? | Sim. Os administradores devem ativar o AI Alt Text Assistant nas opções de configuração do LMS Ally. Clique em Geração de IA de descrições alternativas para imagens na guia Recursos. Os administradores podem ativar ou desativar essa funcionalidade quando quiserem. |
Como o sistema de IA é treinado? | A Anthology não está envolvida no treinamento dos modelos que alimentam as funcionalidades do AI Alt Text Assistant. Esses modelos são treinados pela Microsoft como parte do serviço Vision do Azure. A Microsoft fornece informações sobre como os grandes modelos de linguagem são treinados naseção Introdução da Nota de transparência da Microsofte nos links contidos nela. A Anthology não faz ajustes no serviço Vision do Azure utilizando nossos próprios dados ou os de nossos clientes. |
Os dados do cliente são utilizados para treinar o sistema de IA? | Não. A Microsoft se compromete contratualmente nos termos do Vision do Azure com a Anthology a não utilizar nenhuma entrada ou saída do Vision do Azure para treinamento do grande modelo de linguagem. O mesmo compromisso é feito na documentação da Microsoft sobre Dados, privacidade e segurança para o serviço Azure Vision. Apenas modelos pré-montados são utilizados. |
Como o Anthology Ally usa informações pessoais em relação ao sistema de AI Alt Text Assistant? | O Anthology Ally usa apenas as imagens coletadas em conexão com o AI Alt Text Assistant para fornecer, manter e dar suporte a esse assistente. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade de dados na Central de confiabilidade da Anthology. Apenas as imagens são utilizadas para ativar esse recurso. Nenhuma informação adicional é compartilhada com o Microsoft Azure Vision Serviço. A Microsoft não usa nenhum dado da Anthology, nem dados dos clientes da Anthology, aos quais acessa (como parte do serviço Vision do Azure), para melhorar os modelos do Vision, para melhorar serviços de produtos próprios ou de terceiros ou para melhorar automaticamente os modelos do Vision do Azure para o uso da Anthology no recurso da Anthology (os modelos são sem estado). Você pode encontrar mais informações sobre as práticas de privacidade de dados relacionadas ao serviço Azure Vision na documentação da Microsoft sobreDados, privacidade e segurança para o serviço Azure Vision. |
A acessibilidade foi considerada no desenvolvimento do sistema AI Alt Text? | Sim, nossos engenheiros de acessibilidade colaboraram com as equipes de produtos para avaliar o desenvolvimento, comunicar considerações importantes sobre acessibilidade e testar os novos recursos especificamente em termos de acessibilidade. Continuaremos a considerar a acessibilidade como parte integrante da nossa abordagem à IA confiável. |
Considerações e recomendações para instituições
Estudos de caso programados
O AI Alt Text Assistant destina-se apenas a oferecer suporte às funcionalidades relacionadas acima. Essas funcionalidades são fornecidas e destinadas aos instrutores dos nossos clientes para dar suporte à correção dos problemas de acessibilidade identificados pelo Ally.
Estudos de caso fora do escopo
O AI Alt Text Assistant não tem a finalidade de tornar todas as imagens acessíveis com o texto alternativo perfeito, pois ainda cabe ao instrutor ajustar ou aprovar o texto alternativo com base no contexto do conteúdo do curso.
Princípios de IA confiável na prática
A Anthology e a Microsoft acreditam que o uso legal, ético e responsável da IA é uma prioridade fundamental. Esta seção explica como a Anthology e a Microsoft trabalharam para lidar com o risco aplicável ao uso legal, ético e responsável da IA e implementar os princípios de IA confiável da Anthology. Também sugere medidas que nossos clientes podem considerar ao realizar as próprias análises jurídicas e de IA dos riscos éticos da IA na implementação.
Transparência e explicabilidade
Deixamos claro nas opções de configuração de administração do Ally que esta é uma funcionalidade assistida por IA
Na interface de usuário dos instrutores, as funcionalidades do AI Alt Text Assistant estão claramente marcadas como funcionalidades "Generativas". Os instrutores também devem avaliar o texto gerado antes de utilizá-lo. Os metadados dos resultados gerados pelas funcionalidades do AI Alt Text Assistant são incluídos no Relatório de utilização do Ally de cada cliente com um campo para conteúdo gerado automaticamente. Ele também mostra se os resultados foram posteriormente editados pelo instrutor.
Além das informações apresentadas neste documento sobre como funcionam os modelos do AI Alt Text Assistant e do serviço Vision do Azure, a Microsoft disponibiliza informações adicionais sobre o serviço Vision do Azure na Nota de transparência.
Incentivamos os clientes a serem transparentes sobre o uso de IA no AI Alt Text Assistant e oferecemos aos instrutores e outras partes interessadas, conforme apropriado, as informações relevantes deste documento e a documentação vinculada neste documento.
Confiabilidade e precisão
Deixamos claro nas opções de Configuração de administração e nos Termos de uso do Ally que esta é uma funcionalidade assistida por IA, que pode produzir resultados imprecisos ou indesejados e que devem sempre ser analisados pelo instrutor.
Na interface do usuário, o sistema solicita aos instrutores que analisem o texto gerado quanto à precisão.
Conforme detalhado na seção de Limitações da Nota de transparência do serviço Vision do Azure, há o risco de resultados imprecisos. Embora a natureza específica do AI Alt Text Assistant e nossa implementação tenham como objetivo minimizar a imprecisão, é responsabilidade de nosso cliente analisar os resultados quanto a precisão, parcialidade e outros problemas potenciais.
Como parte da comunicação relativa ao AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os instrutores podem a interface existente do Ally para editar manualmente as saídas do AI Alt Text Assistant antes de publicá-las aos alunos.
Os clientes podem reportar qualquer saída imprecisa para nós utilizando os canais citados na introdução.
Justiça
Os grandes modelos de linguagem apresentam inerentemente riscos relacionados a estereótipos, representação além/aquém do desejável e outras formas de viés prejudicial. A Microsoft descreve esses riscos na seção de Limitações da Nota de transparência do serviço Vision do Azure.
Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Alt Text Assistant para evitar estudos de caso que possam ser mais propensos a vieses prejudiciais ou em que o impacto dessas ocorrências de viés possa ser mais significativo.
No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser afetada por viés prejudicial. Conforme mencionado acima no item "Precisão", solicitamos aos instrutores que avaliem os resultados, o que pode ajudar a reduzir qualquer viés prejudicial.
Como parte da comunicação relativa ao AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os clientes podem relatar qualquer viés potencialmente prejudicial por meio dos canais de contato relacionados na introdução.
Privacidade e segurança
Conforme descrito na seção "Principais fatos" acima, apenas a imagem é utilizada para o AI Alt Text Assistant e acessível à Microsoft. A seção também descreve o nosso comprometimento e o da Microsoft em relação ao uso de quaisquer informações pessoais.
O Ally tem certificação ISO 27001/27017/27018/27701. Essas certificações incluirão as saídas relacionadas ao AI Alt Text Assistant gerenciadas pela Anthology. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade e à segurança de dados na Central de confiabilidade.
A Microsoft descreve as próprias práticas e compromissos de privacidade e segurança de dados na documentação sobre Dados, privacidade e segurança para o serviço Vision do Azure.
não importa o compromisso da Anthology e da Microsoft em relação à privacidade de dados e ao não uso de informações para treinar os modelos, os clientes poderão aconselhar os instrutores a não incluir nenhuma informação pessoal ou outras informações confidenciais nas imagens.
Segurança
Os grandes modelos de linguagem apresentam inerentemente um risco de saídas que podem ser inadequadas, ofensivas ou de outra forma não seguras. A Microsoft descreve esses riscos na seção de Limitações da Nota de transparência do serviço Vision do Azure.
Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Alt Text Assistant para evitar estudos de caso que possam ser mais propensos a resultados inseguros ou onde o impacto de tais resultados poderia ser mais significativo.
No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser insegura. Conforme mencionado acima no item "Precisão", solicitamos aos instrutores que avaliem os resultados, o que pode ajudar a reduzir o risco de resultados inseguros.
Como parte da comunicação relativa ao AI Alt Text Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os clientes devem relatar qualquer resultado potencialmente inseguro utilizando os canais relacionados na introdução.
Pessoas no controle
Para minimizar o risco relacionado ao uso de IA generativa para clientes e usuários, deixamos os clientes intencionalmente no controle das funcionalidades do AI Alt Text Assistant. O AI Alt Text Assistant é, portanto, um recurso facultativo. Os administradores podem ativar ou desativar o AI Alt Text Assistant a qualquer momento.
Além disso, os instrutores tem o controle dos resultados, o que significa que devem analisar o texto gerado e podem editá-lo, conforme necessário.
O AI Alt Text Assistant não inclui qualquer tipo de tomada de decisão automatizada que possa gerar um efeito legal ou significativo sobre os alunos ou outras pessoas.
Incentivamos os clientes a analisarem cuidadosamente este documento, inclusive os links de informações disponíveis, para garantir que compreendam as capacidades e limitações do AI Alt Text Assistant e do serviço Vision do Azure subjacente antes de ativarem o AI Alt Text Assistant.
Alinhamento de valor
Os grandes modelos de linguagem representam inerentemente riscos em relação a resultados tendenciosos, inapropriados ou não alinhados aos valores da Anthology ou aos valores dos clientes e alunos. A Microsoft descreve esses riscos na seção de Limitações da Nota de transparência do serviço Vision do Azure.
Além disso, os grandes modelos de linguagem (como todas as tecnologias com objetivos abrangentes), apresentam o risco de serem mal utilizados para estudos de caso que não se alinhem aos valores da Anthology, dos clientes ou dos usuários finais e da sociedade em geral (por exemplo, para atividades criminosas, para gerar resultados prejudiciais ou indevidos).
Devido a esses riscos, desenvolvemos e implementamos cuidadosamente nossas funcionalidades do AI Alt Text Assistant para minimizar o risco de resultados desalinhados. Por exemplo, nos concentramos em funcionalidades para instrutores e não para alunos. Também omitimos intencionalmente funcionalidades potencialmente de alto risco.
Propriedade intelectual
Os grandes modelos de linguagem representam inerentemente riscos relacionados a possíveis violações a direitos de propriedade intelectual. A maioria das leis mundiais de propriedade intelectual não antecipou nem se adaptou inteiramente ao surgimento dos grandes modelos de linguagem e à complexidade das questões que surgem da sua utilização. Como resultado, atualmente não há orientação nem parâmetros jurídicos claros que abordem as questões de propriedade intelectual e os riscos que surgem do uso desses modelos.
Em última análise, é responsabilidade do cliente avaliar os resultados gerados pelo AI Alt Text Assistant em busca de qualquer possível violação de direitos de propriedade intelectual.
Acessibilidade
Projetamos e desenvolvemos o AI Alt Text Assistant tendo em mente a acessibilidade, assim como fazemos no Learn e em nossos outros produtos. Antes do lançamento do AI Alt Text Assistant, aperfeiçoamos deliberadamente a acessibilidade da estrutura semântica, da navegação, do controle de teclado, de rótulos, componentes personalizados e fluxos de trabalho de imagens, apenas para citar algumas áreas. Continuaremos a priorizar a acessibilidade à medida que aproveitarmos a IA no futuro.
Responsabilidade
A Anthology tem um programa de IA confiável, projetado para garantir o uso legal, ético e responsável da IA. A responsabilidade interna clara e a análise ética sistemática da IA ou de funcionalidades, como as oferecidas pelo AI Alt Text Assistant, são pilares fundamentais do programa.
Para fornecer o AI Alt Text Assistant, fizemos uma parceria com a Microsoft para aproveitar o serviço Vision do Azure, que alimenta o AI Alt Text Assistant. A Microsoft tinha umcompromisso de longa data com o uso ético da IA.
Os clientes devem considerar a implementação de políticas e procedimentos internos, além da análise de aplicações de IA de terceiros para garantir o próprio uso de forma legítima, ética e responsável da IA. Essas informações são disponibilizadas para substanciar a avaliação dos nossos clientes em relação ao AI Alt Text Assistant.
Outras informações
Abordagem de IA confiávelda Anthology
Lista de recursos de IA generativa da Anthology
Página de IA responsávelda Microsoft
Nota de transparência da Microsoft para o serviço Vision do Azure
Página da Microsoft sobre Dados, privacidade e segurança para Azure Vision Serviço
Termos de uso do AI Alt Text Assistant
O Ally AI Alt Text Assistant utiliza os modelos de IA generativa da Microsoft a partir do Azure Vision Services.
Importante
Esse recurso pode gerar resultados indesejados ou imprecisos. É responsabilidade do usuário e do respectivo instrutor analisar todos os resultados e corrigi-los ou modificá-los conforme necessário ou apropriado. , note que nenhum dado do cliente é utilizado para treinar, reeducar ou melhorar os modelos de IA generativa do Azure Vision. Imagens enviadas para o Assistente de Texto Alternativo da IA serão transmitidas para os servidores do Azure AI Vision Serviço que podem estar localizados fora do seu hosting.
Você pode encontrar mais informações sobre os riscos e as limitações do recurso na documentação padrão do usuário final.
Ao ativar esse recurso, você confirma que aceita os termos adicionais em nome da sua instituição e que leu e compreendeu as informações sobre riscos e limitações contidas e/ou mencionadas na documentação padrão do usuário final acima.