Assistente de desenvolvimento de IA do Blackboard
O uso legal, ético e responsável da inteligência artificial (IA) é uma prioridade fundamental para a Anthology; portanto, desenvolvemos e implementamos um programa de IA confiável. Você pode encontrar informações sobre nosso programa e nossa abordagem geral para IA confiável na Central de confiabilidade.
Como parte dos nossos princípios de IA confiável, nos comprometemos com a transparência, explicabilidade e responsabilidade. Esta página tem como objetivo possibilitar a transparência e a explicabilidade necessárias para ajudar nossos clientes com a implementação do AI Design Assistant. Recomendamos que os administradores examinem cuidadosamente esta página e garantam que os instrutores estejam cientes das considerações e recomendações abaixo antes da ativação das funcionalidades do AI Design Assistant para sua instituição.
Como entrar em contato conosco:
Para perguntas ou comentários sobre nossa abordagem geral de IA confiável ou como podemos tornar esta página mais útil para os clientes, envie um e-mail para trustworthy-ai@anthology.com.
Em caso de dúvidas ou comentários sobre a funcionalidade ou o resultado do Assistente de desenvolvimento de IA, envie um chamado de suporte ao cliente.
Funcionalidades assistidas por IA
O AI Design Assistant auxilia os instrutores na criação e no desenvolvimento de novos cursos. O objetivo é inspirar os professores e tornar a criação de cursos mais eficiente. A Anthology fez parceria com a Microsoft para fornecer essa funcionalidade, não só porque a Microsoft tem um compromisso de longa data com o uso ético da IA.
O Assistente de desenvolvimento de IA oferece as seguintes funcionalidades facilitadas por IA generativa no Blackboard:
Gere palavras-chave para o serviço de imagens royalty-free no Blackboard, desenvolvido pelo Unsplash – Sugere palavras-chave para a busca no Unsplash para eficiência.
Gerar módulos de aprendizagem – Auxilia os instrutores sugerindo uma estrutura de curso.
Gerar imagens de módulos de aprendizagem – Cria e sugere imagens para cada módulo de aprendizagem.
Gere exercícios autênticos – Fornece sugestões para exercícios usando o contexto do seu curso
Gerar questões e bancos de questões – Inspira os instrutores sugerindo uma variedade de questões em uma prova ou construindo um banco de perguntas.
Gerar discussões e diários – Fornece aos instrutores sugestões para incentivar a interação em sala de aula
Selection de contexto – Usa o contexto do curso que você escolher para gerar conteúdo para muitos dos nossos recursos de IA
Seletor de idioma - Seleciona o idioma de saída entre qualquer um dos idiomas compatíveis pelo Blackboard
Gerar um critério de avaliação – Sugere um critério de avaliação com estrutura e critérios para uma determinada avaliação, o que aumenta a eficiência do professor e proporciona transparência na avaliação dos alunos.
Gerar uma conversa com IA - Cria uma conversa entre um Aluno e uma persona IA em um exercício de questionamento socrático ou cenário de interpretação
Gerar imagens de Documento – Gera imagens para usar em um Documento, tornando os Documentos mais atraentes visualmente para os alunos.
São dez níveis de complexidade para o conteúdo gerado por IA.
Séries iniciais do nível primário
Últimos anos da escola primária
Séries iniciais do ensino fundamental
Últimos anos do ensino fundamental
Séries iniciais do ensino médio
Últimos anos do ensino médio
Divisão inferior do ensino superior
Divisão superior do ensino superior
Pós-avaliação
Doutorado avançado
Visit our AI Design Assistant page for instructors to learn more about all its features.
Importante
Essas funcionalidades estão sujeitas às limitações e à disponibilidade do serviço OpenAI do Azure, bem como estão sujeitas a alterações. Verifique as notas de lançamento relevantes para saber mais.
Principais fatos
Pergunta | Resposta |
|---|---|
Quais funcionalidades usam sistemas de IA? | Todas as funcionalidades do Assistente de desenvolvimento de IA descritas acima (geração de palavras-chave para Unsplash, geração de módulos de aprendizagem, questões e bancos de questões, critérios de avaliação, imagens para documentos Blackboard). |
Este sistema de IA é compatível com sistemas de terceiros? | Sim – o AI Design Assistant foi desenvolvido pelo serviço OpenAI do Azure da Microsoft. |
Como o sistema de IA funciona? | O AI Design Assistant aproveita o serviço OpenAI do Azure da Microsoft para gerar resultados automaticamente. Isso é feito usando informações limitadas do curso (por exemplo, título do curso, descrição do curso) como base para solicitações no serviço OpenAI do Azure, por meio da API de serviço OpenAI do Azure. Os instrutores podem incluir mais contexto nas solicitações para a geração de resultados mais personalizados. O Azure OpenAI Service gera a saída com base no prompt e o conteúdo é apresentado na interface do usuário do Blackboard. Para uma explicação detalhada sobre como o Azure OpenAI Service e os grandes modelos de linguagem OpenAI GPT subjacentes, consulte a seção Introdução da Nota de Transparência da Microsoft e os links fornecidos nela. |
Onde o sistema de IA fica hospedado? | A Anthology atualmente usa várias instâncias globais do serviço OpenAI do Azure. A instância principal está hospedada nos Estados Unidos. Mas, às vezes, podemos utilizar recursos em outros locais, como Canadá, Reino Unido ou França, para oferecer aos clientes a melhor opção de disponibilidade do serviço OpenAI do Azure. Todos os dados do curso do cliente usados para a entrada e toda a saída gerada pelo Assistente de desenvolvimento de IA são armazenados no banco de dados Blackboard existente do cliente pela Anthology. |
Essa funcionalidade é opcional? | Sim. Os administradores precisam ativar o Assistente de Desenvolvimento de IA no console de administração do Blackboard. As configurações do Assistente de Desenvolvimento de IA estão na categoria building block. Clique em AI Design Assistant e Unsplash. Os administradores podem ativar ou desativar cada funcionalidade separadamente. Os administradores também precisam atribuir privilégios do AI Design Assistant às funções do curso, como a função Instrutor, conforme necessário. Os privilégios que precisam ser atribuídos são 'Buscar imagens usando o Unsplash' e 'Usar Assistente de Desenvolvimento de IA'. |
Como o sistema de IA é treinado? | A Anthology não está envolvida no treinamento dos grandes modelos de linguagem que alimentam as funcionalidades do AI Design Assistant. Esses modelos são treinados pela Microsoft como parte do serviço OpenAI do Azure, que alimenta as funcionalidades do AI Design Assistant. A Microsoft fornece informações sobre como os grandes modelos de linguagem são treinados na seção Introdução da Nota de transparência da Microsoft e nos links contidos nela. A Anthology não faz ajustes no serviço OpenAI do Azure usando nossos próprios dados ou os de nossos clientes. |
Os dados do cliente são utilizados para treinar o sistema de IA? | Não. A Microsoft se compromete contratualmente no seus termos do Azure OpenAI com a Anthology a não usar qualquer entrada ou saída do Azure OpenAI para o (re)treinamento do grande modelo de linguagem. O mesmo compromisso é assumido na documentação da Microsoft sobre Dados, privacidade e segurança do serviço OpenAI do Azure |
Como a Anthology utiliza informações pessoais no que diz respeito à disponibilização do sistema de IA?? | A Anthology só usa as informações coletadas em conexão com o AI Design Assistant para disponibilizar, manter e dar suporte ao AI Design Assistant em que temos a permissão contratual para fazer isso conforme a lei aplicável. Você pode encontrar mais informações sobre a abordagem da Anthology à privacidade de dados em nosso Central de Confiabilidade . |
No caso de um sistema de IA compatível com terceiros, como o terceiro usará as informações pessoais? | Apenas informações limitadas do curso são disponibilizadas à Microsoft para o serviço OpenAI do Azure. Isso geralmente não deve incluir informações pessoais (exceto nos casos em que informações pessoais são incluídas em títulos do curso, descrições e informações semelhantes do curso). Além disso, qualquer informação que os instrutores decidirem incluir na solicitação estará acessível. A Microsoft não usa nenhum dado da Anthology, nem dados dos clientes da Anthology aos quais tem acesso (como parte do serviço OpenAI do Azure), para melhorar os modelos do OpenAI, para melhorar serviços de produtos próprios ou de terceiros ou para melhorar automaticamente os modelos do OpenAI do Azure para o uso da Anthology no recurso da Anthology (os modelos são sem estado). A Microsoft analisa as solicitações e as saídas para filtragem de conteúdo para evitar abusos e geração de conteúdo prejudicial. Prompts e saídas são armazenados apenas por até 30 dias. Você pode encontrar mais informações sobre as práticas de privacidade de dados relacionadas ao serviço OpenAI do Azure na documentação da Microsoft sobre Dados, privacidade e segurança para o serviço OpenAI do Azure. |
A acessibilidade foi considerada no desenvolvimento do Sistema de IA? | Sim, nossos engenheiros de acessibilidade colaboraram com as equipes de produtos para avaliar o desenvolvimento, comunicar considerações importantes sobre acessibilidade e testar os novos recursos especificamente em termos de acessibilidade. Continuaremos a considerar a acessibilidade como parte integrante da nossa abordagem à IA confiável. |
Considerações e recomendações para instituições
Estudos de caso programados
O Assistente de Desenvolvimento de IA é projetado apenas para funcinar com as funcionalidades listadas acima (geração de palavras-chave para Unsplash, geração de módulos de aprendizagem, questões e bancos de perguntas de teste, critérios de avaliação, imagens para documentos do Blackboard). Essas funcionalidades são fornecidas e destinadas aos instrutores de nossos clientes para apoiá-los na criação e desenvolvimento de cursos no Blackboard.
Estudos de caso fora do escopo
Como o Assistente de Desenvolvimento de IA é alimentado pelo Azure OpenAI Service da Microsoft, que tem uma ampla gama de estudos de caso https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?context=%2Fazure%2Fcognitive-services%2Fopenai%2Fcontext%2Fcontext&tabs=text#use-cases pode ser possível usar a funcionalidade de prompt no Assistente de Desenvolvimento de IA para solicitar resultados além das funcionalidades pretendidas. Desencorajamos fortemente o uso do AI Design Assistant para qualquer finalidade além do escopo das funcionalidades planejadas. Fazer isso pode resultar na geração de resultados que não são adequados ou compatíveis com o ambiente Blackboard e com as medidas que implementamos para minimizar resultados imprecisos.
Em especial, os pontos abaixo devem ser seguidos ao solicitar:
Use apenas solicitações de saídas mais relevantes do AI Design Assistant (por exemplo, fornecer mais detalhes sobre a estrutura pretendida do curso)
Não use solicitações de saídas além da funcionalidade pretendida. Por exemplo, você não deve usar solicitações de fontes ou referências para a saída. Em nossos testes, determinamos que há problemas de precisão com esse tipo de saída.
Tenha em mente que solicitações de saída no estilo de uma pessoa específica ou solicitações de uma saída semelhante a itens protegidos por direitos autorais ou marcas registradas podem resultar em uma saída que acarreta o risco de violação de direito de propriedade intelectual.
A saída sugerida para tópicos sensíveis pode ser limitada. O serviço OpenAI do Azure foi treinado e implementado de maneira a minimizar o conteúdo ilegal e prejudicial. Isso inclui uma funcionalidade de filtro de conteúdo. Isso poderá resultar em resultados limitados ou mensagens de erro quando o AI Design Assistant for usado para cursos relacionados a tópicos sensíveis (por exemplo, automutilação, violência, ódio, sexo).
Não use solicitações que violem os termos do contrato da sua instituição com a Anthology ou que violem o Código de Conduta da Microsoft para o serviço OpenAI do Azure e a Política de uso aceitável nos Termos de serviços on-line da Microsoft.
Princípios de IA confiável na prática
A Anthology e a Microsoft acreditam que o uso legal, ético e responsável da IA é uma prioridade fundamental. Esta seção explica como a Anthology e a Microsoft trabalharam para lidar com o risco aplicável ao uso legal, ético e responsável da IA e implementar os princípios de IA confiável da Anthology. Também sugere medidas que nossos clientes podem considerar ao realizar suas próprias análises jurídicas e de IA dos riscos éticos da IA no ato da implementação.
Transparência e explicabilidade
Deixamos claro no console de administrador do Blackboard que essa é uma funcionalidade facilitada por IA
Na interface de usuário dos instrutores, as funcionalidades do AI Design Assistant estão claramente marcadas como funcionalidades "Gerar". Os instrutores também são solicitados a analisar a saída de texto antes do uso.
Os metadados da saída criados pelas funcionalidades do Assistente de Desenvolvimento de IA têm um campo para conteúdo gerado automaticamente e para saber se o conteúdo foi posteriormente editado pelo instrutor.
Além das informações apresentadas neste documento sobre como funcionam os modelos do AI Design Assistant e do serviço OpenAI do Azure, a Microsoft disponibiliza informações adicionais sobre o serviço OpenAI do Azure na sua Nota de transparência.
Incentivamos os clientes a serem transparentes sobre o uso de IA no AI Design Assistant e oferecemos aos instrutores e outras partes interessadas, conforme apropriado, as informações relevantes deste documento e a documentação vinculada aqui.
Confiabilidade e precisão
Deixamos claro no console de administrador do Blackboard que esta é uma funcionalidade facilitada por IA que pode produzir resultados imprecisos ou indesejados e que esse resultado deve sempre ser revisado.
Na interface do usuário, o sistema solicita aos instrutores que analisem o texto gerado quanto à precisão.
Conforme detalhado na seção Limitações da Nota de transparência do serviço OpenAI do Azure, há o risco de resultados imprecisos (inclusive “alucinações”). Embora a natureza específica do AI Design Assistant e nossa implementação tenham como objetivo minimizar a imprecisão, é responsabilidade de nosso cliente analisar os resultados quanto a precisão, parcialidade e outros problemas potenciais.
Conforme mencionado acima, os clientes não devem usar solicitações de saídas além dos estudos de caso pretendidos, principalmente porque isso poderá resultar em resultados imprecisos (por exemplo, quando referências ou fontes são solicitadas).
Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os instrutores podem usar solicitações e configurações adicionais nos fluxos de trabalho generativos para dar mais contexto ao AI Design Assistant e melhorar o alinhamento e a precisão.
Os instrutores podem usar fluxos de trabalho existentes no Blackboard para editar manualmente os resultados do Assistente de Desenvolvimento de IA antes de publicá-los para os alunos.
Os clientes podem reportar qualquer saída imprecisa para nós utilizando os canais citados na introdução.
Justiça
Os grandes modelos de linguagem apresentam inerentemente riscos relacionados a estereótipos, representação além/aquém do desejável e outras formas de viés prejudicial. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Design Assistant para evitar estudos de caso que possam ser mais propensos a viés prejudicial ou em que o impacto de tais ocorrências de viés poderia ser mais significativo.
No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser afetada por viés prejudicial. Conforme mencionado acima no item "Precisão", solicitamos aos instrutores que avaliem os resultados, o que pode ajudar a reduzir qualquer viés prejudicial.
Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os clientes podem relatar qualquer viés potencialmente prejudicial por meio dos canais de contato relacionados na introdução.
Privacidade e segurança
Conforme descrito na seção "Principais fatos" acima, apenas informações pessoais limitadas são usadas para o AI Design Assistant e acessíveis à Microsoft. A seção também descreve o nosso comprometimento e o da Microsoft em relação ao uso de quaisquer informações pessoais. Dada a natureza do AI Design Assistant, espera-se que as informações pessoais na saída gerada também sejam limitadas.
Nosso produto Software como serviço da Blackboard tem a certificação ISO 27001/27017/27018 e atualmente está trabalhando para obter a certificação conforme a ISO 27701. Essas certificações incluirão as informações pessoais relacionadas ao AI Design Assistant gerenciadas pela Anthology. Você pode encontrar mais informações sobre a abordagem da Anthology em relação à privacidade e à segurança de dados na Central de confiabilidade.
A Microsoft descreve suas práticas e compromissos de privacidade e segurança de dados na documentação sobre Dados, privacidade e segurança para o serviço OpenAI do Azure.
Independentemente do compromisso da Anthology e da Microsoft em relação à privacidade de dados e ao não uso de informações para treinar os modelos, os clientes poderão aconselhar os instrutores a não incluir nenhuma informação pessoal ou outras informações confidenciais nas solicitações.
Segurança
Os grandes modelos de linguagem apresentam inerentemente um risco de saídas que podem ser inadequadas, ofensivas ou não seguras. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
Devido a esses riscos, escolhemos cuidadosamente as funcionalidades do AI Design Assistant para evitar estudos de caso que possam ser mais propensos a resultados inseguros ou onde o impacto de tais resultados poderia ser mais significativo.
No entanto, não pode ser excluída a possibilidade de que parte da produção possa ser insegura. Conforme mencionado acima no item "Precisão", solicitamos aos instrutores que avaliem os resultados, o que pode ajudar a reduzir o risco de resultados inseguros.
Como parte da comunicação sobre o AI Design Assistant, os clientes devem alertar os instrutores sobre essa possível limitação.
Os clientes devem relatar qualquer resultado potencialmente inseguro utilizando os canais relacionados na introdução.
Pessoas no controle
Para minimizar o risco relacionado ao uso de IA generativa para os clientes e os usuários, colocamos os clientes intencionalmente no controle das funcionalidades do AI Design Assistant. O AI Design Assistant é, portanto, um recurso de opcional. Os administradores devem ativar o Assistente de Desenvolvimento de IA e podem então ativar cada funcionalidade separadamente. Eles também podem desativar o AI Design Assistant no todo ou cada uma das funcionalidades individuais.
Além disso, os instrutores estão no controle da saída. Eles devem avaliar a saída de texto e podem editá-la.
O AI Design Assistant não inclui nenhuma tomada de decisão automatizada que possa ter um efeito legal ou significativo sobre os alunos ou outros pessoas.
Incentivamos os clientes a analisarem cuidadosamente este documento, inclusive os links de informações disponíveis, para garantir que compreendam as capacidades e limitações do AI Design Assistant e do serviço OpenAI do Azure subjacente antes de ativarem o AI Design Assistant no ambiente de produção.
Alinhamento de valor
Os grandes modelos de linguagem representam inerentemente riscos em relação a resultados tendenciosos, inapropriados ou não alinhados aos valores da Anthology ou aos valores dos clientes e alunos. A Microsoft descreve esses riscos na seção Limitações da Nota de transparência do serviço OpenAI do Azure.
Além disso, os grandes modelos de linguagem (como todas as tecnologias com objetivos abrangentes), apresentam o risco de serem mal utilizados para estudos de caso que não se alinhem aos valores da Anthology, dos clientes ou dos usuários finais e da sociedade em geral (por exemplo, para atividades criminosas, para gerar resultados prejudiciais ou indevidos).
Devido a esses riscos, desenvolvemos e implementamos cuidadosamente nossas funcionalidades do AI Design Assistant para minimizar o risco de resultados desalinhados. Por exemplo, nos concentramos em funcionalidades para instrutores e não para alunos. Também omitimos intencionalmente funcionalidades potencialmente de alto risco.
A Microsoft também avalia as solicitações e saídas como parte da sua funcionalidade de filtragem de conteúdo, para evitar abusos e geração de conteúdo prejudicial.
Propriedade intelectual
Os grandes modelos de linguagem representam inerentemente riscos relacionados a possíveis violações a direitos de propriedade intelectual. A maioria das leis mundiais de propriedade intelectual não antecipou nem se adaptou inteiramente ao surgimento dos grandes modelos de linguagem e à complexidade das questões que surgem da sua utilização. Como resultado, atualmente não há orientação nem parâmetros jurídicos claros que abordem as questões de propriedade intelectual e os riscos que surgem do uso desses modelos.
Em última análise, é responsabilidade do cliente avaliar os resultados gerados pelo AI Design Assistant em busca de qualquer possível violação de direito de propriedade intelectual. Tenha em mente que solicitações de saída no estilo de uma pessoa específica ou solicitações de uma saída semelhante a itens protegidos por direitos autorais ou marcas registradas podem resultar em uma saída que acarreta um risco aumentado de infrações.
Acessibilidade
Projetamos e desenvolvemos o Sistema de Desenvolvimento de IA com acessibilidade em mente, como fazemos em Blackboard e em nossos outros produtos. Antes do lançamento do AI Design System, melhoramos deliberadamente a acessibilidade da estrutura semântica, navegação, controle de teclado, rótulos, componentes personalizados e fluxos de trabalho de imagem, para citar algumas áreas. Continuaremos a priorizar a acessibilidade à medida que aproveitarmos a IA no futuro.
Responsabilidade
A Anthology tem um programa de IA confiável, projetado para garantir o uso legal, ético e responsável da IA. A responsabilidade interna clara e a análise ética sistemática da IA ou da suas funcionalidades, como as oferecidas pelo AI Design Assistant, são pilares fundamentais do programa.
Para fornecer o AI Design Assistant, fizemos uma parceria com a Microsoft para aproveitar o serviço OpenAI do Azure, que alimenta o AI Design Assistant. A Microsoft tinha um compromisso de longa data com o uso ético da IA.
Os clientes devem considerar a implementação de políticas e procedimentos internos, além da análise de aplicações de IA de terceiros para garantir o próprio uso de forma legítima, ética e responsável da IA. Estas informações são disponibilizadas para dar suporte à avaliação dos nossos clientes sobre o AI Design Assistant.
Outras informações
A abordagem Confiável de IA da Anthology
Página de IA responsável da Microsoft
Nota de transparência da Microsoft para o serviço OpenAI do Azure
Página da Microsoft sobre Dados, privacidade e segurança para o serviço OpenAI do Azure
Idiomas de saída compatíveis com fluxos de trabalho de IA
O AI Design Assistant pode produzir resultados em muitos idiomas:
Árabe
Azerbaijano
Catalão
Chinês simplificado
Chinês tradicional
Croata
Tcheco
Dinamarquês
Holandês
Inglês americano
Inglês australiano
Inglês britânico
Francês
Francês canadense
Alemão
Grego
Hebraico
Italiano
Irlandês
Japonês
Coreano
Malaio
Norueguês (Bokmål)
Norueguês nynorsk
Polonês
Português brasileiro
Português de Portugal
Russo
Esloveno
Espanhol
Sueco
Tailandês
Turco
Ucraniano
Galês