Blackboard AI Design Assistant
Anthology는 인공 지능(AI)의 합법적·윤리적·책임 있는 사용을 최우선 과제로 삼고 있으며, 이를 위해 신뢰할 수 있는 AI 프로그램을 개발하고 구현했습니다. 신뢰할 수 있는 AI에 대한 프로그램 및 일반적인 접근 방식에 대한 정보는 신뢰 센터 에서 확인할 수 있습니다.
당사의 신뢰할 수 있는 AI 원칙의 일환으로, 저희는 투명성, 설명 가능성, 그리고 책임성을 다할 것을 약속드립니다. 이 페이지는 고객이 AI 설계 어시스턴트 구현에 도움을 주고 필요한 투명성 및 설명 가능성을 제공하기 위해 마련되었습니다. 이 페이지를 관리자가 면밀히 검토하고, 강사가 아래의 고려사항 및 권고사항을 인지한 후에 교육기관에서 AI 설계 어시스턴트 기능을 활성화하도록 권장합니다.
연락처:
신뢰할 수 있는 AI에 대한 일반적인 접근법이나 이 페이지를 고객에게 더 유용하게 만드는 방법에 대한 질문이나 피드백이 있으면 trustworthy-ai@anthology.com로 이메일을 보내주시기 바랍니다.
AI 설계 어시스턴트 기능이나 결과물에 대한 질문이나 피드백은 고객 지원 티켓으로 제출해 주십시오.
AI 지원 기능
AI 설계 보조는 강사가 새 강좌를 만들고 설계하는 데 도움을 줍니다. 강의 제작을 더 효율적으로 만들고 교수자들에게 영감을 주기 위한 것입니다. 앤솔로지는 마이크로소프트와 협력하여 이 기능을 제공하는데, 이는 마이크로소프트가 AI 윤리적 사용에 오랜 기간 헌신해왔기 때문이다.
AI 설계 어시스턴트는 Blackboard에서 다음과 같은 생성형 AI 지원 기능을 제공합니다:
Unsplash 를 기반으로 한 Blackboard에서 로열티 프리 이미지 서비스를 위한 키워드 생성 – 효율성 향상을 위해 Unsplash 검색에 사용할 키워드를 제안합니다.
학습 모듈 생성 – 강사가 강의 구조를 설계할 수 있도록 지원합니다.
학습 모듈 이미지 생성 – 각 학습 모듈에 대해 이미지를 생성하여 제안합니다.
진정성 있는 과제 생성 – 수업 맥락에 부합하는 과제 제안 제공
시험 문제 및 문제 은행 생성 – 시험에 다양한 문제를 제안하고 문제은행을 구축하여 교수자들에게 영감을 줍니다.
토론 및 일지 생성 – 교수자에게 수업 상호작용을 촉진하는 프롬프트를 제공합니다.
맥락 선택기 – 선택한 강의 맥락을 활용하여 다양한 AI 기능으로 콘텐츠를 생성합니다.
언어 선택기 - Blackboard가 지원하는 언어 중에서 원하는 출력 언어를 선택할 수 있습니다.
평가 기준 생성 – 주어진 평가의 구조와 기준을 갖춘 채점 루브릭을 제안함으로써 교수자의 효율성을 향상시키고 학생들에게 평가의 투명성을 제공합니다.
AI 대화 생성 - 소크라테스식 질문 연습 및 역할극 시나리오에서 학생과 AI 페르소나 간의 대화를 생성합니다.
문서 이미지 생성 – 문서에 사용할 이미지를 생성해 학생들에게 시각적으로 매력적인 문서를 제공합니다.
AI 생성 콘텐츠에는 10가지 수준의 복잡성이 있습니다.
초등학교 저학년
초등학교 후반
중학교 저학년
중학교 후반
고등학교 조기
고등학교 후반
학부(생) 하위 부문
학부(생) 상급 부문
대학원(생) 수준
고급 박사 수준
Visit our AI Design Assistant page for instructors to learn more about all its features.
중요
Azure OpenAI 서비스의 제한 및 가용성에 따라 이 기능들은 변경될 수 있습니다. 관련 릴리스 노트를 확인하시기 바랍니다.
주요 사실
질문 | 대답 |
|---|---|
AI 시스템에서 사용되는 기능은 무엇인가요? | AI 설계 어시스턴트의 모든 기능(Unsplash용 키워드 생성, 학습 모듈 생성, 시험 문제 및 문제 은행, 채점 루브릭, Blackboard 문서용 이미지)을 위에서 설명하였습니다. |
이 시스템은 서드파티가 지원하는 AI인가요? | AI 설계 어시스턴트는 마이크로소프트 Azure OpenAI 서비스로 구동됩니다. |
AI 시스템은 어떻게 작동하는지 알고 싶으신가요? | AI 설계 어시스턴트는 마이크로소프트 Azure OpenAI 서비스를 활용해 출력물을 자동으로 생성합니다. Azure OpenAI Service API를 사용하여 제한된 강의 정보(예: 강좌 제목, 강좌 설명)를 Azure OpenAI 서비스로 전달함으로써 이를 달성합니다. 교수자들은 더 맞춤화된 출력을 생성하기 위해 추가적인 프롬프트 맥락을 포함할 수 있다. Azure OpenAI 서비스는 프롬프트를 기반으로 출력물을 생성하며, 해당 콘텐츠는 Blackboard 사용자 인터페이스에 나타납니다. Azure OpenAI 서비스와 기반이 되는 OpenAI GPT 대형 언어 모델의 작동 원리에 대한 자세한 설명은 마이크로소프트 투명성 노트의 소개 섹션과 그 안에 제공된 링크를 참조하시기 바랍니다. |
AI 시스템 호스팅 위치는 어디인가요? | Anthology는 현재 여러 글로벌 Azure OpenAI 서비스 인스턴스를 활용하고 있습니다. 주 인스턴스는 미국에 호스팅되어 있지만, 때로는 캐나다, 영국, 프랑스 등 다른 지역의 자원을 활용해 Azure OpenAI 서비스에 최적의 가용성 옵션을 제공할 수 있습니다. AI 설계 어시스턴트가 입력 및 출력에 사용하는 모든 클라이언트 강의 데이터는 Anthology의 기존 Blackboard 데이터베이스에 저장됩니다. |
이것은 옵트인(Opt-in) 기능입니까? | 예. 관리자는 Blackboard 관리 콘솔에서 AI 설계 보조기능을 활성화해야 합니다. AI 디자인 어시스턴트 설정은 빌딩 블록 카테고리에 있습니다. AI 디자인 어시스턴트 및 Unsplash를 선택하세요. 관리자는 각 기능을 개별적으로 활성화하거나 비활성화할 수 있습니다. 교육 관리자는 필요에 따라 강의자 및 AI 설계 보조 역할에 권한을 할당해야 합니다. 할당해야 할 권한은 ‘Unsplash를 이용한 이미지 검색’과 ‘AI 디자인 어시스턴트 사용’입니다. |
AI 시스템은 어떤 과정을 통해 훈련되나요? | 앤솔로지는 대형 언어 모델 학습을 통해 AI 디자인 어시스턴트 기능을 구동하는 데 관여하지 않습니다. 이 모델들은 마이크로소프트에서 AI 디자인 어시스턴트 기능을 지원하는 Azure OpenAI 서비스의 일부로 학습됩니다. 마이크로소프트는 대규모 언어 모델의 학습 방식에 대한 정보를 Microsoft 투명성 노트(Transparency Note)의 소개(Introduction) 섹션과 그 안에 포함된 링크에서 제공합니다. Anthology는 자체 데이터나 고객의 데이터를 사용하여 Azure OpenAI 서비스를 추가로 미세 조정(fine-tune)하지 않습니다. |
클라이언트 데이터는 AI 시스템 재학습에 사용되나요? | 아니요. Microsoft는 대규모 언어 모델의 (재) 교육을 위해 Azure OpenAI에 대한 입력 또는 출력을 사용하지 않도록 Anthology와 계약하여 Azure OpenAI 조건을 커밋합니다. Azure OpenAI 서비스의 데이터, 프라이버시, 보안에 관한 마이크로소프트 문서에서도 동일한 약속이 이루어져 있습니다. |
AI 시스템 제공과 관련하여 Anthology는 개인 정보를 어떻게 사용하나요? | Anthology는 AI Design Assistant와 관련하여 수집된 정보를 해당 도구를 제공·유지·지원하기 위한 용도로만 사용하며, 관련 법률에 따라 계약상 허용된 범위에서만 사용합니다. 앤솔로지 데이터 프라이버시 접근 방식에 대한 자세한 정보는 트러스트 센터에서 확인할 수 있습니다. |
제3자가 지원하는 AI 시스템에서, 제3자는 개인정보를 어떻게 사용할까요? | Azure OpenAI 서비스를 위해 Microsoft에 제공되는 강좌 정보는 제한적입니다. 개인 정보는 일반적으로 포함하지 않아야 합니다(강의 제목, 설명 및 유사한 강의 정보에 개인 정보가 포함된 경우 제외). 또한, 강사가 프롬프트(prompt)에 포함하기로 선택한 모든 정보는 액세스될 수 있습니다. Microsoft는(는) Azure OpenAI 서비스를 통해 접근할 수 있는 Anthology 데이터나 Anthology 클라이언트 데이터를 OpenAI 모델 개선, 자사 또는 제3자 제품·서비스 개선, 또는 Anthology 리소스에서 사용하기 위한 Azure OpenAI 모델의 자동 개선 용도로 사용하지 않습니다(모델은 상태 비저장 방식입니다). Microsoft는 오용 및 유해한 콘텐츠 생성을 방지하기 위해 콘텐츠 필터링에 대한 프롬프트 및 출력을 검토합니다. 프롬프트와 출력물은 최대 30일까지만 보관됩니다. Azure OpenAI 서비스의 데이터 개인 정보 보호 관행에 대한 더 자세한 정보는 Azure OpenAI 서비스의 데이터, 개인 정보 보호 및 보안에 관한 Microsoft 문서에서 찾아볼 수 있습니다. |
AI 시스템 설계에 접근성이 고려되었습니까? | 네, 접근성 엔지니어들은 제품 팀과 협력하여 설계를 검토하고 중요한 접근성 고려사항을 전달하며 접근성을 위한 새로운 기능을 테스트했습니다. 당사는 접근성(accessibility)을 신뢰할 수 있는 AI 접근 방식의 필수적인 부분으로 계속 고려할 것입니다. |
교육 기관에 대한 고려 사항 및 권고사항
의도된 사용 사례
AI 설계 어시스턴트는 위에서 언급한 기능들(Unsplash용 키워드 생성, 학습 모듈 생성, 시험 문제 및 문제 은행, 채점 루브릭, Blackboard 문서용 이미지)을 지원하도록 설계되었습니다. 고객사 교수자들이 Blackboard에서 강의를 제작하고 설계할 수 있도록 이 기능들이 제공되고 의도되었습니다.
범위를 벗어난 사용 사례
AI 설계 어시스턴트는 마이크로소프트 Azure OpenAI Service를 기반으로 하며, 이 서비스가 제공하는 다양한 용도로 인해, AI 설계 어시스턴트의 프롬프트 기능을 사용하여 의도된 기능을 넘어서는 출력을 요청할 수 있습니다. 고객이 AI 설계 어시스턴트를 의도된 기능 범위를 벗어나 사용하는 것을 강력히 권장하지 않습니다. 그렇게 할 경우, Blackboard 환경에 적합하지 않거나 호환되지 않는 결과물, 그리고 부정확한 결과물을 최소화하기 위해 당사가 마련한 조치에 부합하지 않는 결과물이 생성될 수 있습니다.
특히, 프롬프트(prompting) 시에는 아래의 사항들을 준수해야 합니다:
AI 설계 어시스턴트에서 더 관련성 높은 결과를 얻기 위해 '의도된 강의 구조에 대한 자세한 설명'과 같은 프롬프트만 사용하세요.
의도된 기능 범위를 벗어나는 결과물을 요청하기 위해 프롬프트(prompt)를 사용하지 마십시오. 출력물의 출처나 참고문헌을 요청할 때 프롬프트 사용을 피하는 것이 좋습니다. 테스트 결과, 출력물에 정확성 문제가 있는 것으로 확인되었습니다.
특정인의 스타일로 결과물을 요청하는 프롬프트나 저작권 또는 상표권이 있는 항목과 유사해 보이는 결과물을 요청하는 프롬프트는 지적 재산권 침해 위험이 있는 결과물을 초래할 수 있음을 유념하십시오.
민감한 주제에 대한 제안된 결과물은 제한될 수 있습니다. Azure OpenAI 서비스는 불법적이거나 유해한 콘텐츠를 최소화하는 방식으로 훈련되고 구현되었습니다. 여기에는 콘텐츠 필터링 기능이 포함돼 있습니다. AI 설계 보조 도구가 자해, 폭력, 증오, 성과 같은 민감한 주제와 관련된 강의에 사용될 경우 출력 제한이나 오류 메시지가 발생할 수 있습니다.
교육기관의 앤솔로지 계약 조건이나 Azure OpenAI 서비스 행동 강령, Microsoft 온라인 서비스 약관의 허용 가능한 사용 정책을 위반하는 프롬프트 사용을 금합니다.
AI 원칙의 신뢰성 있는 실천
Anthology와 Microsoft는 AI의 합법적·윤리적·책임 있는 사용을 최우선 과제로 보고 있습니다. 이 섹션에서는 앤솔로지와 마이크로소프트가 인공지능의 법적, 윤리적, 책임 있는 사용에 적용되는 위험을 어떻게 해결하고 Anthology 신뢰받는 AI 원칙을 구현했는지 설명합니다. 고객이 자체 AI 및 법률 검토를 수행할 때 고려해야 할 단계와 도입 시 윤리적 위험 등을 다루는 다양한 지침을 제공합니다.
투명성 및 설명 가능성
블랙보드 관리자 콘솔에서 이것이 AI 지원 기능임을 명확히 밝힙니다.
강사용 사용자 인터페이스에서 AI 설계 보조 기능은 명확하게 ‘생성’ 기능으로 표시되어 있다. 강사님들께서는 사용하기 전에 텍스트 출력물을 검토해 주실 것을 요청드립니다.
AI 설계 어시스턴트 기능이 생성한 결과물의 메타데이터에는 자동 생성된 콘텐츠와 교수자가 이후에 편집했는지 여부를 확인할 수 있는 필드가 포함되어 있습니다.
AI 설계 도우미 및 Azure OpenAI 서비스 모델의 작동 방식에 대한 이 문서에 제공된 정보 외에도 Microsoft는 투명성 노트 에 Azure OpenAI 서비스에 대한 추가 정보를 제공합니다.
AI 설계 어시스턴트에서 AI 사용에 대해 고객에게 투명하게 알리고, 이 문서 및 연결된 문서에서 관련 정보를 교수자와 이해관계자에게 적절히 제공할 것을 권장합니다.
신뢰성과 정확성
Blackboard 관리자 콘솔에서 이 기능이 AI 기반으로 제공되며 부정확하거나 원치 않는 결과가 생성될 수 있으므로 반드시 검토해야 함을 명확히 안내하고 있습니다.
교수자들은 사용자 인터페이스를 통해 텍스트 출력물의 정확성을 검토하도록 요청받습니다.
Azure OpenAI 서비스 투명성 노트의 제한 사항에 자세히 설명된 바와 같이 부정확한 출력(환각 포함)의 위험이 존재합니다. AI 설계 어시스턴트와 구현의 특성상 부정확성을 최소화하기 위한 것이지만 정확성, 편향 및 기타 잠재적 문제를 검토하는 것은 고객의 책임입니다.
클라이언트는 앞서 언급한 바와 같이, 의도된 사용 사례를 넘어서는 출력을 프롬프트를 통해 요청해서는 안 되며, 이는 부정확한 결과(예: 참조나 출처 요청 등)를 초래할 수 있습니다.
AI 디자인 지원(AI Design Assistant)과 관련된 커뮤니케이션의 일환으로, 고객은 강사들에게 이러한 잠재적 제한 사항을 숙지시켜야 합니다.
교수자들은 AI 설계 보조기능에 추가적인 프롬프트와 설정을 활용하여 더 많은 맥락을 제공하고 정렬 및 정확성을 향상시킬 수 있다.
교수진은 Blackboard에 있는 기존 워크플로우를 활용하여 AI 설계 어시스턴트의 결과물을 수동으로 수정한 다음 학생들에게 공개할 수 있다.
고객은 소개에 나열된 채널을 통해 부정확한 출력을 저희에게 신고할 수 있습니다.
공정
대규모 언어 모델은 본질적으로 고정관념, 과잉대표 및 과소대표, 그리고 기타 해로운 편향과 관련된 위험을 내포하고 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 고지(Transparency Note)의 '제한 사항(Limitations)' 섹션에서 이러한 위험들을 설명하고 있습니다.https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations
AI 설계 보조 기능을 신중히 선택하여 해로운 편향에 취약하거나 그 영향이 클 수 있는 사용 사례를 피했습니다.
그럼에도 불구하고, 일부 결과물이 유해한 편향(harmful bias)의 영향을 받을 가능성을 배제할 수 없습니다. 교수자들은 앞서 언급한 '정확성' 항목에서처럼 결과물을 검토하여 해로운 편향을 줄이는 데 도움을 줄 수 있습니다.
AI 디자인 지원(AI Design Assistant)과 관련된 커뮤니케이션의 일환으로, 고객은 강사들에게 이러한 잠재적 제한 사항을 숙지시켜야 합니다.
고객은 서론에 명시된 연락 채널을 통해 잠재적으로 해로운 편향을 저희에게 보고할 수 있습니다.
프라이버시 및 보안
'핵심 사실' 섹션에서 설명한 바와 같이, AI 설계 어시스턴트는 제한된 개인정보만을 사용하며, 이는 마이크로소프트가 접근 가능합니다. 본 섹션은 또한 개인 정보의 사용과 관련하여 당사와 Microsoft의 약속을 설명합니다. AI 설계 보조기능은 생성된 결과물에 포함된 개인정보도 제한할 것으로 예상됩니다.
Blackboard SaaS 제품은 ISO 27001/27017/27018 인증을 획득했으며, 현재 ISO 27701 인증을 위한 작업을 진행하고 있습니다. 이 자격증에는 Anthology가 관리하는 AI 설계 어시스턴트와 관련된 개인 정보가 포함되어 있습니다. 트러스트 센터에서 앤솔로지 데이터 프라이버시 및 보안 접근 방식에 관한 자세한 정보를 확인할 수 있습니다.
Microsoft는 Azure OpenAI 서비스의 데이터, 개인 정보 보호, 보안 에 대한 설명서의 데이터 개인 정보 보호 및 보안 관행과 약속을 설명합니다.
데이터 개인 정보 보호에 대한 Anthology 및 Microsoft의 약속과 관계없이 모델을 (재) 훈련하기 위해 입력을 사용하지 않는 경우, 고객은 교수자에게 프롬프트에 개인 정보 또는 기타 기밀 정보를 포함하지 말라고 조언 할 수 있습니다.
안전
대규모 언어 모델은 본질적으로 부적절하거나 불쾌하거나 안전하지 않은 출력을 생성할 위험이 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 노트의 제한 사항 섹션에서 이러한 위험을 설명합니다.
AI 설계 보조 기능을 신중히 선택하여 위험한 결과물이 발생하거나 그 영향이 클 수 있는 사용 사례를 피하였습니다.
일부 출력물이 안전하지 않을 가능성을 배제할 수는 없습니다. 앞서 언급한 ‘정확성’ 항목에서 교수자들은 산출물을 검토할 것을 요청받으며, 이는 안전하지 않은 산출물의 위험을 줄이는 데 더욱 도움이 됩니다.
AI 디자인 지원(AI Design Assistant)과 관련된 커뮤니케이션의 일환으로, 고객은 강사들에게 이러한 잠재적 제한 사항을 숙지시켜야 합니다.
고객은 소개된 채널을 통해 잠재적으로 안전하지 않은 출력물을 보고해야 합니다.
인간이 통제하는 과정
생성형 AI 사용으로 인한 위험을 고객 및 사용자에게 최소화하기 위해, 의도적으로 AI 설계 어시스턴트 기능을 고객이 직접 통제할 수 있도록 하고 있습니다. AI 설계 보조기능은 선택이 가능합니다. 관리자는 AI 설계 보조기능을 활성화한 후 각 기능을 개별적으로 활성화할 수 있다. AI 설계 어시스턴트 전체나 개별 기능을 비활성화할 수도 있습니다.
교수자들은 결과물을 통제한다. 텍스트 출력물을 검토하고 편집할 수 있습니다.
AI 설계 어시스턴트에는 학습자나 다른 개인에게 법적이거나 중대한 영향을 미치는 자동화된 의사결정 기능이 포함되어 있지 않습니다.
고객은 AI 설계 보조 도구 및 기본 Azure OpenAI 서비스의 기능과 한계를 충분히 이해한 다음, 본 문서에 포함된 정보 링크를 꼼꼼히 검토하시기를 권장합니다.
가치 정렬
대형 언어 모델은 본질적으로 편향되거나 부적절하거나 Anthology의 가치나 고객 및 학습자의 가치와 일치하지 않는 결과물을 생성할 위험이 있습니다. Microsoft는 Azure OpenAI 서비스 투명성 고지(Transparency Note)의 '제한 사항(Limitations)' 섹션에서 이러한 위험들을 설명하고 있습니다.https://learn.microsoft.com/en-us/legal/cognitive-services/openai/transparency-note?tabs=text#limitations
대형 언어 모델(광범위한 목적을 수행하는 모든 기술과 마찬가지로)은 Anthology, 고객 또는 최종 사용자, 그리고 더 넓은 사회의 가치(예: 범죄 행위, 해로운 또는 부적절한 출력 생성)에 부합하지 않는 용도로 오용될 위험이 있다.
이러한 위험을 고려하여, 우리는 부적절한 출력이 발생할 가능성을 최소화하도록 AI Design Assistant 기능을 신중하게 설계하고 구현했습니다. 예를 들어, 학습자보다는 교수자를 위한 기능성에 더 집중해 왔습니다. 또한 잠재적으로 부담이 큰 기능들은 의도적으로 생략했습니다.
Microsoft는 또한 오용 및 유해한 콘텐츠 생성을 방지하기 위해 콘텐츠 필터링 기능의 일부로 프롬프트 및 출력을 검토합니다.
지적 재산
언어 모델의 대규모 사용은 본질적으로 지적 재산권 침해와 관련된 위험을 내포하고 있습니다. 전 세계 대부분의 지적 재산권 법률은 거대 언어 모델(LLMs)의 출현과 그 사용으로 인해 발생하는 문제의 복잡성을 완전히 예측하거나 이에 적응하지 못했습니다." 현재 이 모델 사용으로 인한 지적 재산권 문제와 위험을 다루는 명확한 법적 틀이나 지침이 부재한 상태입니다.
고객은 AI 설계 어시스턴트가 생성한 결과물을 검토할 책임이 있다. 특정인의 스타일로 결과물을 요청하는 프롬프트나 저작권 또는 상표권이 있는 항목과 유사해 보이는 결과물을 요청하는 프롬프트는 침해 위험이 고조된(높아진) 결과물을 초래할 수 있음을 유념하십시오.
접근성
블랙보드 및 기타 제품들과 마찬가지로 접근성을 고려하여 AI 설계 시스템을 설계하고 개발하였습니다. AI 설계 시스템 출시 전에 의미 구조, 내비게이션, 키보드 제어, 라벨, 맞춤형 컴포넌트, 이미지 워크플로 등 다양한 영역에서 접근성을 의도적으로 향상시켰습니다. AI 활용을 통해 접근성을 최우선으로 삼을 것입니다.
책임성
앤솔로지는 AI를 합법적이고 윤리적이며 책임감 있게 사용할 수 있도록 설계된 신뢰할 수 있는 AI 프로그램을 운영하고 있습니다. 명확한 내부 책임성 및 AI 설계 보조원이 제공하는 기능과 같은 체계적이고 윤리적인 AI 검토 기능은 프로그램의 핵심 축입니다.
우리는 AI 디자인 어시스턴트를 제공하기 위해 마이크로소프트와 협력하여 AI 디자인 어시스턴트를 구동하는 Azure OpenAI 서비스를 활용했습니다. Microsoft는 AI의 윤리적 사용에 대한 오랜 약속을 가지고 있었습니다.
고객은 내부 정책, 절차 및 제3자 AI 적용 검토를 도입하여 법적이고 윤리적이며 책임감 있는 AI 사용을 보장해야 합니다. 고객들이 AI 디자인 어시스턴트를 평가하는 데 도움이 되도록 이 정보를 제공합니다.
추가 정보
앤솔로지의 신뢰할 수 있는 AI 접근법
Microsoft의 투명성 참고 자료 - Azure OpenAI 서비스용
Azure OpenAI Service의 데이터, 개인 정보 보호, 보안에 대한 Microsoft 페이지
AI 워크플로에 지원되는 출력 언어
AI Design Assistant는 여러 언어로 출력을 생성할 수 있습니다.
아랍어
아제르바이잔어
카탈로니아어
중국어 간체
중국어 기존
크로아티아어
체코어
덴마크어
네덜란드어
영어, 미국 요리
영어, 오스트레일리아어
영어, 영국
프랑스어
프랑스어, 캐나다
독일어
그리스어
히브리어
이탈리아어
아일랜드어
일본어
한국어
말레이어
노르웨이어, 복말
노르웨이 뉘노르스크
폴란드어
포르투갈어, 브라질어
포르투갈어, 포르투갈어
러시아어
슬로베니아어
스페인어
스웨덴어
태국어
터키어
우크라이나어
웨일스어