교육자료

무하유 생성형 AI 활용 가이드라인

작성일
2023-06-21 11:49
조회
301
챗GPT의 등장과 함께 생성형 AI 시대가 도래하면서, 사람은 더 많은 분야에서 AI의 도움을 받아 업무 효율화를 이루게 되었습니다. 단순한 정보 검색부터 글쓰기, 프로그래밍, 그림, 작곡 등 다양한 분야에서 질문이나 명령 키워드 몇 개만으로 원하는 답 또는 새로운 결과물을 받아볼 수 있는 것입니다.

그러나, 생성형 AI 활용은 편리하다는 장점 이면에 많은 부작용도 존재합니다. 예시로는 저작권 침해, 표절 논란, 개인 정보 침해, 그리고 사고력 저하 등이 있죠. 생성형 AI가 등장하고 난 이후부터 부작용과 관련한 논란은 끊이지 않고 있습니다. 그래서 생성형 AI가 만든 결과물에 대해서 바로 인식할 수 있는 워터마크 같은 기능을 적용해야 한다는 목소리도 나오고 있습니다.


하지만, 이미 실생활에 많이 적용된 생성형AI를 아예 금지하는 것은 어려울 뿐더러, 시대에 맞지 않은 조치이기도 합니다. 따라서 관계자들은 생성형 AI 사용 적발이 아닌 적절한 사용 유도가 최선의 방법이라 생각하고, 이에 대한 규칙을 정하거나 활용 가이드를 만들고 있습니다.


이러한 변화에 발맞추어, 자연어를 이해하는 AI 기술 기업 무하유에서도 <생성형 AI 활용 가이드라인>을 제작하여 배포합니다. 다음 가이드 내용에 따라 생성형 AI를 올바르고 창의적으로 사용할 수 있기를 바랍니다.



다음은 자연어처리 AI기술 기업 (주)무하유에서 배포하는 <생성형 AI 활용 가이드라인> 입니다.


 




◎ 생성형 AI 활용 방향



1. 생성형 AI의 답변을 그대로 활용하지 않는다.


생성형 AI는 학습한 데이터를 바탕으로 자동 생성한 답변을 제공합니다. 하지만, 학습 데이터 중 편견이나 사실이 아닌 정보가 포함될 경우, 이를 바탕으로 허위 정보를 생성할 수 있습니다. 즉, 할루시네이션(환각) 현상을 일으키는 것입니다.


또한, 생성형 AI가 만든 자료를 그대로 사용하면 저작권 문제가 발생할 수 있습니다. 따라서 저작권 문제를 고려하여 출처를 명확하게 밝히고, 새로운 자료를 만들어내는 것이 바람직합니다.








※ 논문, 과제 등에서 생성형 AI의 출처는 어떻게 밝혀야 하나요?


: 미국심리학회(APA)에서는 알고리즘의 저자에게 참고문헌 목록 항목과 해당 인용문을 적용한 인용을 부여해야 한다고 밝혔습니다.





예시) “좌뇌와 우뇌는 진짜인가요, 아니면 비유적인 것인가요?”라는 질문을 받은 ChatGPT는 “두 뇌 반구가 어느 정도 특화되어 있긴 하지만, 사람을 ‘좌뇌 발달형’이나 ‘우뇌 발달형’이라고 구분하는 것은 매우 단순화된 표현이자 보편적인 오해”라는 답변을 생성했다.(OpenAI, 2023).





<참고 문헌>





OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat













 

2. 교수자・학습자 간의 상호 합의가 이루어져야 한다.


대학 등의 교육기관에서는 교수자와 학습자 간의 협의 후 생성형 AI를 사용해야 합니다. 먼저 교수자가 생성형 AI 활용을 허용한다면, 학습자들이 최소한의 규칙을 잘 따를 수 있도록 충분히 지도해야 합니다.

또한, 학습자들은 생성형 AI의 답변을 그대로 받아들이기 보다는 이를 재해석하고 변형하여 새로운 지식을 창조해내야 합니다. 새롭게 얻은 통찰력을 통해 더 나은 결론을 만들 수 있어야 합니다.

 

3. 생성형 AI에 대한 무조건적인 거부도, 맹목적인 신뢰도 하지 않는다.


시대 흐름을 읽는 안목과 적절한 도구 활용 능력은 빠르게 변화하는 사회에서 아주 유용한 강점입니다. 올바른 데이터 사용법을 숙지한다면, 생성형 AI로 매우 유용한 인사이트를 얻을 수 있습니다.


하지만 맹목적인 신뢰를 갖는 것도 경계해야 합니다. AI가 학습한 데이터에 편향성이나 오류가 존재할 경우 잘못된 답변을 내놓을 수 있기 때문에 항상 그 결과물을 신중하게 검토해야 하고, 수정/보완을 거쳐 이용해야 합니다.


 

4. 생성형 AI를 항상 사회의 이로운 방향으로 사용한다.


생성형 AI를 사용하는 과정에서 윤리적인 문제가 발생할 수 있습니다. 예시로는 딥페이크 기술을 이용한 범죄, 악성코드, 스팸메시지 같은 사이버 공격, 그리고 특정 인종이나 지역에 대한 편견 강화 등이 있습니다. 사용자는 AI를 악용할 경우 사회적 문제가 심화될 수 있다는 점을 고려해야 합니다.


반면 생성형 AI는 자연어처리를 자동화하거나, 글쓰기를 지원하고, 새로운 아이디어를 제시하는 등 사용자의 업무에서 효율성과 생산성을 높일 수 있다는 장점이 있습니다. 생성형 AI를 지혜롭게 사용하기 위해서는 항상 사회적 책임을 염두에 두고 이를 이행하고자 하는 노력이 따라야 합니다.


 

5. 생성형 AI에 민감한 정보를 입력하지 않는다.


민감한 주제나 개인 정보와 같은 내용이 입력될 경우, 이 정보가 데이터베이스에 저장될 수 있습니다. 이는 해당 정보가 노출되어 개인 정보 침해와 같은 문제로 이어질 수 있습니다. 개인 정보 뿐만 아니라 편견이나 차별적인 언어를 사용할 경우에도 AI가 사용하는 데이터에 반영될 가능성이 있으며, 이는 타인의 생성형 AI 사용에도 불쾌감이나 혐오감을 일으킬 수 있습니다.


따라서, 생성형 AI를 사용할 때에는 민감한 내용 입력을 피하여 더욱 윤리적으로 사용할 수 있어야 합니다.