1. 정확성과 신뢰성 문제
2. 정보의 편향성 문제
3. 보안 문제
4. 표절 문제
출처: 국가정보원, NSR국가보안기술연구소, 챗GPT 등 생성형 AI 활용 보안 가이드라인
<AI 활용 관련 연구 윤리에 대한 주요 학술 단체의 입장>
1. 국제학술지출판윤리위원회(COPE)
<국제학술지출판윤리위원회(COPE)의 입장문>
· COPE는 AI 도구가 논문의 저자로 표시될 수 없다고 밝힌 여러 단체들 중에서 세계의학편집인협의회 (WAME)와 미국의학협회저널 네트워크(JAMA Network)와 같은 단체들의 입장을 지지한다. · AI 도구는 제출된 연구결과물에 대한 책임을 지지 못하기 때문에 저자로서의 요건을 충족시킬 수 없다. · AI 도구는 법인격이 없기 때문에 이해충돌 유무를 주장하거나 저작권과 라이센스 계약을 관리할 수도 없다. · 논문의 원고 작성, 이미지 또는 그래픽 요소 제작, 데이터 수집 및 분석 등에서 AI 도구를 사용한 저자는 논문의 재료 및 방법론(또는 유사한 섹션)에서 어떤 AI 도구가 어떻게 사용되었는지 명확히 공개해야 한다. · 저자들은 AI 도구에 의해 산출된 부분을 포함하여 그들의 논문 원고 내용에 대해 전적으로 책임을 져야 한다. 따라서 저자들은 어떠한 출판윤리 위반에 대해서도 책임을 져야 한다.
|
2. Nature誌(모든 Springer Nature journals 포함)
첫째, LLM tool은 연구논문에 공적을 인정받는 저자가 될 수 없다. · 이는 저자로 표시(attribution of authorship)된다는 것은 해당 연구결과물에 대한 책임(accountability)을 진다는 것인데, AI tool은 그러한 책임(responsibility)을 질 수 없기 때문이다.
해당 사실을 적시해야 한다. · 만약 논문에 이러한 섹션이 없는 경우에는 도입부(introduction) 또는 다른 적절한 섹션에 LLM 사용 사실을 기술해야 한다.
|
3. Science誌
· AI, 기계학습 또는 유사한 알고리즘 도구를 활용하여 생성된 텍스트는 편집자(editor)의 명시적인 허락이 없는 상태에서 Science 저널의 논문에서 사용할 수 없다. 그와 같은 도구를 사용하여 만든 그림, 이미지, 그래픽도 마찬가지이다. · 아울러, AI 프로그램은 Science 저널 논문의 저자가 될 수 없다. 이 정책을 위반하는 것은 과학적 부정행위에 해당한다.
|
4. 한국연구재단(NRF)
한국연구재단 지원과제의 신청자 및 수행자는 연구개발계획서 및 단계/최종보고서 작성 과정에서 생성형 AI 도구를 사용한 경우, 해당 계획서 및 보고서에 AI 도구 사용 내역을 기술할 것을 권장합니다. 출처: 연구윤리정보포털 |
<AI도구를 활용하여 만든 결과물에 대한 저작권 관련 이슈 >
AI 저작물의 저작권 보호 여부
· 현재 전 세계적으로 AI가 생성한 저작물 자체는 저작권 보호를 받지 않습니다.※ 저작권법은 인간이 창작한 결과물만 보호하는 구조로 되어 있음
AI가 저작자가 될 수 있는가?
· 저작권법 상 저작자는 창작물을 만든 사람으로 정의됩니다.· AI는 법적 권리 주체가 될 수 없기 때문에 AI가 저작자가 될 수 없으며, 저작 인격권 또한 인정되지 않습니다.
· AI 저작물에 인간의 저작물이 일부 부가되었다든지, AI의 저작물을 인간이 창의적으로 재배열했다든지 등 특정한 조건이 부가되면 AI도구가 생성한 저작물(텍스트, 이미지, 음성 등)도 제한적인 범위 내에서 저작권을 보호받을 수 있다.
<AI도구를 활용하여 만든 결과물에 대한 저작권 인정 사례>
인간과 AI의 협업 저작물
· AI가 생성한 저작물에 인간이 기여한 부분이 있다면, 그 인간 기여 부분에 대하여는 저작권이 인정될 수 있습니다.· AI가 만든 콘텐츠와 인간의 창작물을 결합하여 재생성한 경우, 해당 저작물에 대해서는 제한적으로 저작권이 보호될 수 있습니다.
해외 사례
· 미국 저작권청에서 AI가 만든 이미지와 인간이 텍스트를 작성한 만화에 대하여, 인간의 기여 부분에만 저작권을 인정한 사례가 있습니다.※ AI가 생성한 부분은 저작권 보호 대상이 아님
출처: 한국연구재단, 연구개발에서 인공지능 도구의 활용과 관련된 연구윤리 이슈 분석
<AI도구를 활용하여 만든 결과물에 대한 저작권 분쟁 사례>
Authors Guild et al. vs Open AI and Microsoft
· 2023년 9월, Authors Guild와 소설 작가들이 OpenAI와 Microsoft를 상대로 집단소송 제기
· AG측 주장: ChatGPT가 저작권이 있는 텍스트를 허가 없이 사용하였으며 이는 "대규모 체계적 절도"에 해당
· OpenAI의 반론: AI 모델 개발은 "공정 사용" 조항에 따라 보호된다고 주장하며, 기술의 변형적 특성을 강조함
New York Times vs Open AI
· 2023년 12월, NYT가 OpenAI를 상대로 소송을 제기함
· NYT측 주장: ChatGPT가 NYT 기사를 훈련 데이터로 사용함 (출력물이 기사 원본과 유사하다는 증거 제시)
· OpenAI의 반론: ChatGPT는 NYT 콘텐츠의 대체물이 아니며, 문법과 구문은 저작권 보호 대상이 아니다.
3. 기타
· StabilityAI, DeviantArt, Midjourney에 대한 유사한 소송 진행 중
· 공개 라이센스 데이터의 상업적 사용 제한 문제도 제기됨(GitHub Copilot과 관련된 소송 사례 포함)
출처: Prinston University Research Guides_Generative AI_Copyright
Image created by DALL-E
연구 윤리를 지키는 올바른 AI 사용을 위하여 다음과 같은 체크리스트를 확인할 수 있습니다.
생성형 AI의 결과물을 활용할 때 출처를 명확하게 표기했나요?
생성형AI를 활용할 때 타인의 권리가 침해될 수 있는 텍스트, 오디오, 이미지 등을 사용하지
않았나요?
생성형 AI에 질문이나 정보를 입력할 때 타인의 명예를 훼손하거나 차별하는 내용이 포함되어
있지는 않나요?
생성형 AI가 제시한 정보에 특정인이나 기관 또는 신념, 가치관을 비난하거나 혐오하는 내용이
없나요?
생성형 AI로 정보 획득이나 콘텐츠 제작을 위해 민감한 정보(개인정보, 기업기밀 등)를 제공하지
않았나요?
생성형 AI로 가짜뉴스, 스팸 등을 만들기 위해 부정확한 정보나 조작된 내용을 입력하지는
않았나요?
생성형 AI가 결과로 제시한 정보에 한쪽으로 치우친 편향적이거나 차별적인 내용이 없나요?
생성형 AI가 제공한 정보 중 잘못된 정보가 있는지 확인하기 위해 의심하고 교차검증을 했나요?
생성형 AI에 완전히 의존하지 않고 보조적 수단으로서만 적절하게 활용했나요?
생성형 AI가 제시한 결과를 재해석하거나 자신의 아이디어를 덧붙여 활용했나요?
출처: 한국지능정보사회진흥원, 생성형 AI 윤리 가이드북
AI와 연구 활동 | AI와 연구·출판 윤리 | AI 도구의 활용 | 논문 작성 시 AI 관련 도구