Skip to main content

AI 대화 — 투명성 안내

AI 대화 — 투명성 안내

인공지능(AI)의 합법적이고 윤리적인 책임 있는 사용은 앤솔로지의 주요 우선사항입니다. AI 프로그램을 신뢰할 수 있도록 개발하고 구현했습니다. 신뢰할 수 있는 AI에 대한 프로그램 및 일반적인 접근 방식에 대한 정보는 신뢰 센터 에서 확인할 수 있습니다. 생성형 AI를 활용한 앤솔로지 해결책 개요는 생성형 AI 기능 목록에서 확인할 수 있습니다.

당사의 신뢰할 수 있는 AI 원칙의 일환으로, 저희는 투명성, 설명 가능성, 그리고 책임성을 다할 것을 약속드립니다. 이 페이지는 고객이 AI 대화 구현에 필요한 투명성과 설명 가능성을 제공하기 위해 마련되었습니다. 관리자 여러분은 이 페이지를 꼼꼼히 검토하시고, 교수진이 아래의 고려사항과 권고사항을 숙지한 후 AI 대화 기능을 교육 기관에 적용할 것을 권장합니다.

연락처:

  • 신뢰할 수 있는 AI에 대한 당사의 일반적인 접근 방식이나, 이 페이지를 고객에게 더 유용하게 만드는 방법에 대한 질문 또는 피드백이 있으시면trustworthy-ai@anthology.com으로이메일을 보내주십시오.

  • 고객 지원 티켓을 통해 AI 대화 기능 및 결과물에 대한 질문이나 피드백을 제출해 주십시오.

최종 업데이트: 2024년 11월 1일

AI 지원 기능

AI 대화

AI 대화는 학생들이 적극적으로 참여할 수 있는 새로운 상호작용 활동으로 특별히 설계되었습니다. 교수자들은 강의에서 주제와 AI 페르소나를 명확히 하는 AI 대화를 만들 수 있고, 학생들이 참여할 대화 유형을 선택할 수 있다. AI 대화 기능에서 교수자는 두 가지 옵션을 선택할 수 있습니다: 학생들이 지속적인 질문을 통해 비판적으로 사고하도록 격려하는 소크라테스식 질문과 AI 페르소나와 함께 시나리오를 연상하는 역할극입니다.

소크라테스식 질문

이것은 가이드 퀴즈 활동이나 소크라테스 방식 연습입니다. AI 페르소나는 학생들의 답변을 확인하거나 거부하지 않고 일련의 질문으로 안내합니다. 학생들은 대화가 끝나면 활동에 대해 성찰하고, 학습의 약점과 강점을 강조하며, AI 봇이 편향이나 환각, 부정확성을 보였는지를 지적합니다. 교수자는 제출 시 대화 및 성찰의 대본을 받아 상호작용의 완전한 투명성을 제공합니다. 개별적인 1:1 수업 없이도 강의 주제에 대한 생각을 자극하는 대화를 나누는 데 훌륭한 방법이다. 크고 복잡한 강의에서는 1:1 교류가 어려울 수 있기 때문이다.

AI 대화는 생성형 AI를 활용하여 대화 페르소나의 이미지를 만들 수 있는 능력을 교수자에게 제공합니다.

Azure OpenAI 서비스의 제한 및 가용성에 따라 이 기능들은 변경될 수 있습니다. 관련 릴리스 노트를 확인하시기 바랍니다.

역할극

교수자는 역할극 기능을 사용하여 AI 페르소나와 학생들의 특정 역할을 정의하고, 학생들을 위한 시뮬레이션 대화를 설정할 수 있습니다. 학생들이 현실적인 상황에서 의사소통 능력을 연습할 수 있게 하는 이 상호작용 옵션은 학습 및 훈련 경험을 향상시키고 능동적 학습 기회를 제공합니다. AI 페르소나의 맞춤형 성격 특성과 상황에 맞는 프롬프트를 통해 역할극 기능은 흥미롭고 역동적인 상호작용을 촉진하며, 전체 학습 과정을 풍부하게 하고 비판적 사고를 장려합니다.

교수자들은 AI 퍼스널리티에 이름과 이미지를 할당하여 맞춤화할 수 있습니다. AI 페르소나의 성격 특성을 정의하고 반응 복잡도를 선택합니다. AI 페르소나에게 부여된 성격 특성은 이 역할극 옵션에서 반응과 상호작용을 형성합니다.

참고: 교수자들은 성격 특성을 신중하게 선택하고 시뮬레이션 대화를 미리 확인해야 합니다. 성격 특성이 대화의 톤과 내용에 큰 영향을 미치기 때문입니다. 교수자가 AI 페르소나를 따뜻하고 공감 능력이 뛰어난 인물로 설정하면 AI 페르소나는 이 특성에 따라 반응한다. 교수자가 AI 페르소나를 논란의 여지가 있거나 편향적으로 설정하면 그 AI 페르소나의 결과물도 논란이 되거나 편향될 가능성이 높습니다. AI 페르소나는 학생들의 논란이 되는, 편향된, 위험한 생각에 항상 도전하지 않습니다.

Anthology는 이 기능 테스트의 일환으로 편향이나 부적절한 출력을 피하기 위해 기능을 제한해야 할지 검토하고 논의했습니다. 교육 기관과 교수자는 학생들이 논란의 여지가 있거나 편향될 수 있는 모의 대화에 참여할 수 있도록 학문적 자유를 가져야 한다는 결론을 내렸습니다. AI 페르소나가 생성할 수 있는 출력에는 한계가 있다는 점을 이해하고 있습니다. 교수자들은 AI 대화 결과물과 학생들이 롤플레이 기능을 사용하여 경험하게 될 대화에 대한 최종 책임이 있습니다. OpenAI, Microsoft, Anthology가 도입한 기존 가드레일은 불법이거나 신뢰할 수 있는 AI 기준을 충족하지 못하는 결과물을 차단했습니다. 고객 피드백을 지속적으로 모니터링하며 이 기능이 신뢰할 수 있는 AI 기준을 충족하도록 필요한 변경 사항을 제공할 것입니다.

Azure OpenAI 서비스의 제한 및 가용성에 따라 AI 대화 기능은 변경될 수 있습니다. 관련 릴리스 노트를 확인하시기 바랍니다.

주요 사실

64. 앤솔로지의 AI 접근법에 대한 질문과 답변 표

질문

대답

AI 시스템에서 사용되는 기능은 무엇인가요?

위에서 설명한 대로 인물용 AI 생성 이미지

AI 대화 기능에 대한 위의 설명입니다.

이 시스템은 서드파티가 지원하는 AI인가요?

AI 대화 및 AI 생성 이미지는 마이크로소프트의 Azure OpenAI 서비스로 구동됩니다.

AI 시스템은 어떻게 작동하는지 알고 싶으신가요?

AI 대화는 마이크로소프트의 Azure OpenAI 서비스를 활용하여 자동 생성 결과를 제공합니다. 교수자가 제공한 주제, AI 페르소나, 성격 특성, 복잡성 등의 정보를 소크라테스 또는 롤플레이 옵션 내에서 활용하고, 응답을 돕는 프롬프트를 사용함으로써 이루어집니다.

Azure OpenAI 서비스와 그 기반인 OpenAI GPT 대형 언어 모델의 작동 원리에 대한 자세한 설명은 마이크로소프트 투명성 노트의 소개 섹션 및 제공된 링크를 참조하시기 바랍니다.

AI 시스템 호스팅 위치는 어디인가요?

Anthology는 현재 여러 글로벌 Azure OpenAI 서비스 인스턴스를 활용하고 있습니다. 주 인스턴스(primary instance)는 미국에서 호스팅되지만, 고객에게 Azure OpenAI 서비스를 위한 최고의 가용성 옵션을 제공하기 위해 캐나다, 영국 또는 프랑스와 같은 다른 위치의 리소스를 때때로 활용할 수 있습니다.

모든 클라이언트 강의 데이터와 교수자 입력은 AI Conversation이 생성하는 입력 및 출력에 사용되며, Anthology의 기존 Blackboard 데이터베이스에 저장됩니다.

이것은 옵트인(Opt-in) 기능입니까?

예. 관리자는 Blackboard 관리자 콘솔에서 AI 대화 기능을 활성화해야 합니다. AI 대화 설정은 ‘빌딩 블록’ 카테고리에 있습니다. AI 대화 및 언스플래시 선택하세요. 관리자는 각 기능을 개별적으로 활성화하거나 비활성화할 수 있습니다. 관리자는 필요에 따라 강사에게 "AI 설계 어시스턴트 사용" 권한을 부여해야 합니다.

AI 시스템은 어떤 과정을 통해 훈련되나요?

앤솔로지는 AI 대화 기능을 운영하는 대규모 언어 모델 학습에 관여하지 않습니다. 이 모델은 Azure OpenAI 서비스의 일환으로 OpenAI/Microsoft에 의해 학습되었으며 인공지능 대화 기능을 제공합니다. 마이크로소프트는 대규모 언어 모델의 학습 방식에 대한 정보를 Microsoft 투명성 노트(Transparency Note)의 소개(Introduction) 섹션과 그 안에 포함된 링크에서 제공합니다.

Anthology는 자체 데이터나 고객의 데이터를 사용하여 Azure OpenAI 서비스를 추가로 미세 조정(fine-tune)하지 않습니다.

클라이언트 데이터는 AI 시스템 재학습에 사용되나요?

아니요. Microsoft는 대규모 언어 모델의 (재) 교육을 위해 Azure OpenAI에 대한 입력 또는 출력을 사용하지 않도록 Anthology와 계약하여 Azure OpenAI 조건을 커밋합니다. 동일한 약속이 Azure OpenAI 서비스의 데이터, 개인 정보 보호 및 보안에대한 Microsoft 문서에도 명시되어 있습니다.

AI 시스템 제공과 관련하여 Anthology는 개인 정보를 어떻게 사용하나요?

앤솔로지는 AI 대화와 관련된 정보를 수집하여 사용하며, 관련 법률에 따라 계약을 통해 허가된 경우에만 AI 대화를 제공하고 유지 및 지원합니다. 앤솔로지 데이터 프라이버시 접근 방식에 대한 자세한 정보는 트러스트 센터에서 확인할 수 있습니다.

제3자가 지원하는 AI 시스템에서, 제3자는 개인정보를 어떻게 사용할까요?

Azure OpenAI 서비스를 위해 Microsoft에 제공되는 강좌 정보는 제한적입니다. 개인 정보는 일반적으로 포함되어서는 안 되며(주제, AI 페르소나, 성격 필드 또는 학생의 AI 봇에 대한 질문과 답변에 포함된 경우 제외). 또한, 강사가 프롬프트(prompt)에 포함하기로 선택한 모든 정보는 액세스될 수 있습니다.

Microsoft는 (Azure OpenAI 서비스의 일부로) 액세스 권한이 있는 Anthology 데이터나 Anthology 클라이언트 데이터를 사용하여 OpenAI 모델을 개선하거나, 자체 또는 타사 제품 서비스를 개선하거나, Anthology의 리소스에서 Anthology의 사용을 위해 Azure OpenAI 모델을 자동으로 개선하지 않습니다. 모델에는 국가가 없습니다. Microsoft는 콘텐츠 필터링에 대한 프롬프트 및 출력을 검토합니다. 프롬프트와 출력물은 최대 30일까지만 보관됩니다.

Azure OpenAI 서비스의 데이터 개인 정보 보호 관행에 대한 더 자세한 정보는 Azure OpenAI 서비스의 데이터, 개인 정보 보호 및 보안에 관한 Microsoft 문서에서 찾아볼 수 있습니다.

AI 시스템 설계에 접근성이 고려되었습니까?

네, 접근성 엔지니어들은 제품 팀과 협력하여 설계를 검토하고 중요한 접근성 고려사항을 전달하며 새로운 기능을 테스트했습니다. 당사는 접근성(accessibility)을 신뢰할 수 있는 AI 접근 방식의 필수적인 부분으로 계속 고려할 것입니다.



교육 기관에 대한 고려 사항 및 권고사항

의도된 사용 사례

AI 대화는 위에 나열된 기능들을 지원하기 위해 개발되었습니다. 고객 강사 및 학생들에게 제공되는 이 기능들은 AI 지원 활동을 통해 학습 향상을 목적으로 합니다.

범위를 벗어난 사용 사례

AI 대화는 마이크로소프트가 제공하는 매우 다양한 사용 사례 때문에, AI 대화의 프롬프트 기능을 활용하여 의도된 기능을 초과하는 출력을 요청할 수 있습니다. AI 대화의 의도된 기능 범위를 벗어난 어떤 목적으로도 사용하는 것을 강력히 권장하지 않습니다. 그렇게 할 경우, Blackboard 환경에 적합하지 않거나 호환되지 않는 결과물, 그리고 부정확한 결과물을 최소화하기 위해 당사가 마련한 조치에 부합하지 않는 결과물이 생성될 수 있습니다.

특히, 프롬프트(prompting) 시에는 아래의 사항들을 준수해야 합니다:

  • AI 대화에 할당된 주제를 이어가기 위해 주어진 프롬프트만 사용하십시오. AI 봇에게 질문을 하고 그 질문에 대한 응답을 받거나 지정된 주제에 대해 AI 봇에게 질문하는 것이 가능합니다.

  • 의도된 기능 범위를 벗어나는 결과물을 요청하기 위해 프롬프트(prompt)를 사용하지 마십시오. 출력물의 출처나 참고문헌을 요청할 때 프롬프트 사용을 피하는 것이 좋습니다. 테스트 결과, 출력물에 정확성 문제가 있는 것으로 확인되었습니다.

  • 특정인의 스타일로 결과물을 요청하는 프롬프트나 저작권 또는 상표권이 있는 항목과 유사해 보이는 결과물을 요청하는 프롬프트는 지적 재산권 침해 위험이 있는 결과물을 초래할 수 있음을 유념하십시오.

  • 민감한 주제에 대한 제안된 결과물은 제한될 수 있습니다. Azure OpenAI 서비스는 불법적이거나 유해한 콘텐츠를 최소화하는 방식으로 훈련되고 구현되었습니다. 여기에는 콘텐츠 필터링 기능이 포함됩니다. AI 대화가 자해, 폭력, 증오, 성과 같은 민감한 주제와 관련된 강의에 사용될 경우 제한된 출력이나 오류 메시지가 발생할 수 있습니다. 귀 기관과 Anthology 간의 계약 조건을 위반하거나 Microsoft Online Services 약관에 명시된 Azure OpenAI 서비스에 대한 Microsoft의 행동 강령 및 허용 가능 사용 정책을 위반하는 프롬프트는 사용하지 마십시오.

역할극을 위해서 교수자는 성격 특성을 신중히 선택하고 시뮬레이션된 대화를 미리 확인해야 한다. 성격 특성은 대화의 어조와 내용에 큰 영향을 미치기 때문이다. 위의 기능 설명을 참고하시어 자세한 내용을 확인해 주세요.

AI 원칙의 신뢰성 있는 실천

앤솔로지는 AI를 합법적이고 윤리적이며 책임감 있게 사용하는 것이 핵심 우선순위라고 믿습니다. 본 섹션에서는 Anthology와 Microsoft가 AI의 합법적, 윤리적, 책임 있는 사용에 대한 해당 위험을 해결하고 Anthology의 신뢰할 수 있는 AI 원칙을 구현하기 위해 어떻게 협력했는지 설명합니다. 고객이 윤리적 AI 위험에 대해 자체 검토를 수행할 때 고려할 수 있는 단계들을 제안합니다.

투명성 및 설명 가능성

  • 블랙보드 관리자 콘솔에서 AI 대화가 AI 지원 기능임을 명확히 밝힙니다.

  • 강사용 사용자 인터페이스에서 AI 대화 기능은 명확히 AI 기능으로 표시되어 있다. 교수자들은 학생들에게 제공하기 전에 대화를 미리 보고 체험할 수 있는 권한을 부여받습니다.

  • 이 문서에서는 AI 대화 및 Azure OpenAI 서비스 모델의 작동 방식뿐만 아니라, 마이크로소프트가 투명성 노트를 통해 Azure OpenAI 서비스에 관한 추가 정보를 제공한다는 점도 설명하고 있습니다.

  • AI 대화에서 AI 사용에 대해 투명하게 알리며 교수자, 학생 및 기타 이해관계자에게 이 문서와 연결된 문서에서 적절한 정보를 제공할 것을 권장합니다.

신뢰성과 정확성

  • 블랙보드 관리자 콘솔에서 AI 대화는 AI가 지원하는 기능이며, 부정확하거나 원치 않는 결과를 낼 수 있기 때문에 이런 결과는 반드시 검토해야 한다고 명시합니다.

  • 사용자 인터페이스와 교수자 미리보기, 그리고 AI 대화 기능을 사용하는 학생들에게 답변이 AI에 의해 생성되어 편향되거나 부정확할 수 있다는 점을 알립니다.

  • 교수자는 AI 페르소나의 성격 특성이 반응 및 학생과의 상호작용에 영향을 주어 결과물의 신뢰성과 정확성(환각 위험 증가 포함)에 영향을 미칠 수 있다는 점을 인지해야 합니다. 강사는 성격 특성(personality traits)을 신중하게 선택하고 대화를 미리보기 해야 합니다. 기능 설명을 참고하시기 바랍니다.

  • Azure OpenAI 서비스 투명성 고지(Transparency Note)의'제한 사항(Limitations)' 섹션에 상세히 설명된 바와 같이, 부정확한 결과물(환각(hallucinations) 포함)의 위험이 존재합니다. AI 대화의 구체적인 특징과 구현은 부정확성을 최소화하는 것을 목표로 하지만 정확성, 편향 및 기타 잠재적 문제에 대한 검토는 고객의 책임입니다. AI 대화에 우려가 있다면 학생들과 함께 사용할 필요가 없습니다. 과정 선택은 교수자의 재량에 따른 기능입니다.

  • 클라이언트는 앞서 말한 바와 같이, 의도된 사용 사례를 넘어서는 출력을 프롬프트를 통해 요청해서는 안 되며, 이는 부정확한 결과(예: 참조나 출처 요청 등)를 초래할 수 있습니다.

  • 고객은 AI 대화의 일환으로 교수자와 학생들에게 잠재적 한계와 위험을 알려야 합니다.

  • 교수자들은 생성 워크플로우에 추가된 프롬프트와 설정을 사용하여 AI 대화에 더 많은 맥락을 제공함으로써 정렬과 정확성을 향상시킬 수 있다.

  • 고객은 노트 서두에 명시된 채널을 통해 부정확한 출력을 보고할 수 있습니다.

공정

  • 대규모 언어 모델은 본질적으로 고정관념, 과대 또는 과소 대표 및 기타 해로운 편향과 관련된 위험을 내포하고 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 고지(Transparency Note)의 '제한 사항(Limitations)' 섹션에서 이러한 위험들을 설명하고 있습니다.https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations

  • 위험을 고려하여 AI 대화 기능을 신중히 선택해 해로운 편향에 취약하거나 영향이 클 수 있는 사용 사례를 피하였습니다.

  • 교수자들은 AI 페르소나의 성격 특성이 학생들과의 반응 및 상호작용을 형성하고, 고정관념, 과잉대표 또는 과소대표, 기타 해로운 편향 등을 낳을 수 있다는 것을 인지해야 합니다. 강사는 성격 특성(personality traits)을 신중하게 선택하고 대화를 미리보기 해야 합니다. 더 자세한 내용은 기능 설명을 참조하십시오.

  • 그럼에도 불구하고, 일부 결과물이 유해한 편향(harmful bias)의 영향을 받을 가능성을 배제할 수 없습니다. "정확성"과 같이 교수자들은 활동을 검토하라는 요청을 받으며, 이것은 해로운 편향을 줄이는 데 도움이 될 수 있다.

  • 고객은 교수자에게 AI 대화의 잠재적 한계를 알리는 것이 의사소통의 일부입니다.

  • 고객은 노트 서두에 명시된 연락 채널을 통해 잠재적으로 해로운 편향을 저희에게 보고할 수 있습니다.

프라이버시 및 보안

  • "핵심 사실" 섹션에서 설명한 바와 같이, AI 대화에서는 제한된 개인정보만 사용되며 이는 마이크로소프트가 접근할 수 있습니다. 본 섹션은 또한 개인 정보의 사용과 관련하여 당사와 Microsoft의 약속을 설명합니다. AI 대화의 특성상 생성된 결과물에 포함된 개인정보도 제한될 것으로 예상됩니다.

  • Blackboard SaaS 제품은 ISO 27001/27017/27018 및 ISO 27701 인증을 획득했습니다. 이 자격증에는 Anthology가 관리하는 AI 대화와 관련된 개인정보가 포함되어 있습니다. Anthology의 데이터 개인 정보 보호 및 보안 접근 방식에 대한 자세한 정보는 당사의 Trust Center(신뢰 센터)에서 확인하실 수 있습니다. https://www.anthology.com/trust-center/data-privacy-approach

  • Microsoft는 Azure OpenAI 서비스의 데이터, 개인 정보 보호, 보안 에 대한 설명서의 데이터 개인 정보 보호 및 보안 관행과 약속을 설명합니다.

  • 데이터 개인 정보 보호에 대한 Anthology 및 Microsoft의 약속과 관계없이 입력을 사용하여 모델을 재교육하지 않는 경우 고객은 강사와 학생에게 프롬프트 또는 대화에 개인 정보 또는 기타 기밀 정보를 포함하지 말라고 조언 할 수 있습니다.

안전

  • 대규모 언어 모델은 본질적으로 부적절하거나 불쾌한, 또는 안전하지 않은 출력을 생성할 위험이 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 고지(Transparency Note)의 '제한 사항(Limitations)' 섹션에서 이러한 위험들을 설명하고 있습니다.https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations

  • AI 대화 기능을 선택할 때 이러한 위험을 고려하여 위험한 출력이 발생할 가능성이 높거나 그 영향이 클 수 있는 사용 사례를 피하였습니다.

  • 교수자는 AI 페르소나의 성격 특성이 학생과의 반응 및 상호작용에 영향을 미치고 부적절하거나 불쾌하거나 안전하지 않은 결과를 초래할 수 있음을 인식해야 합니다. 강사는 성격 특성(personality traits)을 신중하게 선택하고 대화를 미리보기 해야 합니다. 더 자세한 내용은 기능 설명을 참조하십시오.

  • AI 대화 출력 중 일부가 안전하지 않을 가능성도 배제할 수 없음에도 불구하고. 위의 '정확성(Accuracy)' 항목에서 언급된 바와 같이, 강사들은 결과물을 검토하도록 요청되며, 이는 안전하지 않은 결과물 발생 위험을 추가적으로 줄이는 데 도움이 될 수 있습니다.

  • 고객은 AI 대화의 일환으로 교수자 및 학생들이 이 잠재적 한계를 인지하도록 해야 합니다.

  • 고객은 노트 서두에 명시된 채널을 통해 잠재적으로 안전하지 않은 출력물을 보고해 주시기 바랍니다.

인간이 통제하는 과정

  • 생성형 AI 사용으로 인한 위험을 고객 및 사용자들에게 최소화하기 위하여, AI 대화 기능을 고객이 직접 통제할 수 있도록 의도적으로 설계하였습니다. AI 대화는 선택 가능한 기능이다. 관리자는 AI 대화 기능을 활성화해야 하며, 각 기능을 개별적으로 활성화할 수 있습니다. AI 대화 전체나 개별 기능을 비활성화할 수 있습니다.

  • AI 대화는 학습자나 다른 개인에게 법적 또는 중대한 영향을 미치는 자동화된 의사결정을 포함하고 있지 않습니다.

  • 고객은 AI 대화 기능 및 기본 Azure OpenAI 서비스를 이해하기 위해 이 문서를 면밀히 검토하고 운영 환경에서 AI 대화를 활성화할 것을 권장합니다.

가치 정렬

  • 대형 언어 모델은 본질적으로 편향되거나 부적절하거나 Anthology의 가치나 고객 및 학습자의 가치와 일치하지 않는 결과물을 생성할 위험이 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 고지(Transparency Note)의 '제한 사항(Limitations)' 섹션에서 이러한 위험들을 설명하고 있습니다.https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations

  • 대형 언어 모델(광범위한 목적을 위한 모든 기술과 마찬가지로)은 앤솔로지, 고객 또는 최종 사용자, 그리고 더 넓은 사회의 가치(예: 범죄 활동이나 해롭거나 부적절한 산출물 생성)와 일치하지 않는 사용 사례에 오용될 위험이 있습니다.

  • AI 대화 기능을 설계 및 구현하는 과정에서 출력 불균형의 위험을 최소화하기 위해 신중을 기했습니다. 또한 잠재적으로 부담이 큰 기능들은 의도적으로 생략했습니다.

  • Microsoft는 또한 오용 및 유해한 콘텐츠 생성을 방지하기 위해 콘텐츠 필터링 기능의 일부로 프롬프트 및 출력을 검토합니다.

지적 재산

  • 언어 모델의 대규모 사용은 본질적으로 지적 재산권 침해와 관련된 위험을 내포하고 있습니다. 전 세계 대부분의 지적 재산권 법률은 거대 언어 모델(LLMs)의 출현과 그 사용으로 인해 발생하는 문제의 복잡성을 완전히 예측하거나 이에 적응하지 못했습니다." 현재 이 모델 사용으로 인한 지적 재산권 문제와 위험을 다루는 명확한 법적 틀이나 지침이 부재한 상태입니다.

  • 고객은 AI 대화가 생성한 결과물을 검토하여 잠재적인 지적 재산권 침해 여부를 확인할 책임이 있다. 특정인의 스타일로 결과물을 요청하는 프롬프트나 저작권 또는 상표권이 있는 항목과 유사해 보이는 결과물을 요청하는 프롬프트는 침해 위험이 고조된(높아진) 결과물을 초래할 수 있음을 유념하십시오.

접근성

우리는 블랙보드 및 다른 제품들처럼 접근성을 고려하여 AI 대화를 설계하고 개발했습니다. AI 대화 기능 출시 전에 의미 구조, 내비게이션, 키보드 조작, 라벨, 맞춤형 컴포넌트, 이미지 워크플로 등 여러 분야에서 접근성을 고의적으로 향상시켰습니다. AI 활용을 통해 접근성을 최우선으로 삼을 것입니다.

책임성

  • 앤솔로지는 AI를 합법적이고 윤리적이며 책임감 있게 사용할 수 있도록 설계된 신뢰할 수 있는 AI 프로그램을 운영하고 있습니다. AI 대화와 같은 체계적인 윤리적 AI 검토 또는 기능은 프로그램의 핵심 축이며, 명확한 내부 책임성을 제공합니다.

  • 우리는 AI 대화를 제공하기 위해 마이크로소프트와 협력하여 Azure OpenAI 서비스를 활용했습니다. Microsoft는 AI의 윤리적 사용에 대한 오랜 약속 을 가지고 있습니다.

  • 고객은 내부 정책, 절차 및 제3자 AI 애플리케이션에 대한 검토를 도입하여 법적, 윤리적, 책임 있는 AI 사용을 보장해야 합니다. 고객 리뷰를 지원하기 위해 AI 대화에 대한 이 정보를 제공합니다.

추가 정보