Skip to Main Content

Research Guides: AI와 연구·출판 윤리

AI와 연구 출판 윤리

 

 

1. 정확성과 신뢰성 문제

  • 위조 및 변조 : AI를 활용하여 코딩을 하고 통계 분석한 결과를 논문으로 작성하는 과정에서 프롬프트 작성 실수 등으로 데이터 위·변조가 발생할 수 있습니다.
  • 왜곡 생성된 그림 또는 틀린 학술 용어 사용 : 생성형 AI는 종종 사실과 다른 정보를 생성할 수 있으며 그럴듯한 오류(환각 현상)를 나타냅니다.

   

2. 정보의 편향성 문제

  •  AI 모델이 학습한 데이터에 따라 편향된 정보를 제공할 수 있습니다.

   

3. 보안 문제

  • 훈련 데이터 유출 : AI 모델은 수집한 훈련 데이터를 일부 암기할 수 있으며, 이는 정보 유출 위험을 가지고 있습니다. 중요 URL, 개인정보, 연락처, API 키와 같은 민감 정보들이 모델 내에서 데이터를 처리하고 응답을 생성하는 과정에서 외부에 노출될 수 있습니다.
  • 기밀 유출 및 해킹 공격 : 생성형 AI를 사용하는 과정에서 개인 또는 기관의 기밀 정보를 제공하면 다른 사용자에게 유출될 위험이 있습니다. 또한, 해커가 데이터베이스를 해킹하거나 회원 추론 공격을 수행하여 기밀성을 침해할 수도 있습니다.

 

4. 표절 문제

  • 저자 표시 : AI를 활용하여 코딩을 하고 통계 분석한 결과를 논문으로 작성한 경우 저자나 조력자 표시 문제. AI를 통해 생성된 결과물을 출처 표기 없이 그대로 사용하는 것은 표절에 해당할 수 있음
  • 표절 예시
  1. (번역) 연구자 A, B가 본인의 논문 a, b에 동일 외국 문헌을 AI를 활용하여 번역한 후 일정 단락을 인용했는데, a, b에 인용된 해당 단락이 거의 동일한 경우
  2. (원고) 연구자 A,B가 본인의 논문 a, b 작성과 관련하여 AI를 활용하여 원고를 작성 및 수정함으로써 동일하거나 유사한 문장 발생

 

출처: 국가정보원, NSR국가보안기술연구소, 챗GPT 등 생성형 AI 활용 보안 가이드라인

 

 

<AI 활용 관련 연구 윤리에 대한 주요 학술 단체의 입장>

 

1. 국제학술지출판윤리위원회(COPE)
  • COPE(Committee on Publication Ethics)은 2023년 2월 13일, AI 도구의 사용과 관련된 저자표시 등에 대하여 다음과 같이 입장문을 발표했습니다.

 

  <국제학술지출판윤리위원회(COPE)의 입장문>


· 연구출판에서 ChatGPT 또는 거대언어모델(LLM)과 같은 AI 도구의 사용이 급속히 늘어나고 있다.

· COPE는 AI 도구가 논문의 저자로 표시될 수 없다고 밝힌 여러 단체들 중에서 세계의학편집인협의회

  (WAME)와 미국의학협회저널 네트워크(JAMA Network)와 같은 단체들의 입장을 지지한다.

· AI 도구는 제출된 연구결과물에 대한 책임을 지지 못하기 때문에 저자로서의 요건을 충족시킬 수 없다.

· AI 도구는 법인격이 없기 때문에 이해충돌 유무를 주장하거나 저작권과 라이센스 계약을 관리할 수도 없다.

· 논문의 원고 작성, 이미지 또는 그래픽 요소 제작, 데이터 수집 및 분석 등에서 AI 도구를 사용한 저자는

  논문의 재료 및 방법론(또는 유사한 섹션)에서 어떤 AI 도구가 어떻게 사용되었는지 명확히 공개해야 한다.

· 저자들은 AI 도구에 의해 산출된 부분을 포함하여 그들의 논문 원고 내용에 대해 전적으로 책임을 져야

  한다. 따라서 저자들은 어떠한 출판윤리 위반에 대해서도 책임을 져야 한다.

 

출처: COPE Council (2023)

 

2. Nature誌(모든 Springer Nature journals 포함)
  • Nature誌는 2023년 1월 24일 사설(EDITORIAL)을 통해 LLM(Large Language Models) tool의 윤리적 사용과 관련된 2가지 원칙을 다음과 같이 제시하였습니다.

 

첫째, LLM tool은 연구논문에 공적을 인정받는 저자가 될 수 없다.

   · 이는 저자로 표시(attribution of authorship)된다는 것은 해당 연구결과물에 대한 책임(accountability)을 

     진다는 것인데, AI tool은 그러한 책임(responsibility)을 질 수 없기 때문이다.


둘째, LLM tool을 사용하는 연구자는 연구방법(methods) 또는 사사(acknowledgements)를 표기하는 섹션에

해당 사실을 적시해야 한다.

   · 만약 논문에 이러한 섹션이 없는 경우에는 도입부(introduction) 또는 다른 적절한 섹션에 LLM 사용

     사실을 기술해야 한다.

 

출처: Editorials, Nature(2023)

 

3. Science誌
  • Science誌는 편집 정책(Editorial Policies) 업데이트를 통해 다음과 같이 AI가 저자가 될 수 없음을 밝히고 있습니다.

 

· AI, 기계학습 또는 유사한 알고리즘 도구를 활용하여 생성된 텍스트는 편집자(editor)의 명시적인

  허락이 없는 상태에서 Science 저널의 논문에서 사용할 수 없다. 그와 같은 도구를 사용하여 만든 그림,

  이미지, 그래픽도 마찬가지이다.

· 아울러, AI 프로그램은 Science 저널 논문의 저자가 될 수 없다. 이 정책을 위반하는 것은 과학적 부정행위에

  해당한다.

 

출처: Science Journals: Editorial Policies

 

 

4. 한국연구재단(NRF)
  • 2024년 3월, 연구개발과제의 신청과 평가 관련 과제 신청자와 수행자 대상의 권고사항 발표

 

 

한국연구재단 지원과제의 신청자 및 수행자는 연구개발계획서 및 단계/최종보고서 작성 과정에서

생성형 AI 도구를 사용한 경우, 해당 계획서 및 보고서에 AI 도구 사용 내역을 기술할 것을 권장합니다.

출처: 연구윤리정보포털

 

 

 

<AI도구를 활용하여 만든 결과물에 대한 저작권 관련 이슈 >

 

  • AI 저작물의 저작권 보호 여부

    · 현재 전 세계적으로 AI가 생성한 저작물 자체는 저작권 보호를 받지 않습니다.

※ 저작권법은 인간이 창작한 결과물만 보호하는 구조로 되어 있음

  • AI가 저작자가 될 수 있는가?

    · 저작권법 상 저작자는 창작물을 만든 사람으로 정의됩니다.

·  AI는 법적 권리 주체가 될 수 없기 때문에 AI가 저작자가 될 수 없으며, 저작 인격권 또한 인정되지 않습니다.

  • AI도구를 활용하여 만든 결과물이 저작권 보호를 받기 위한 요건은 무엇인가?

· AI 저작물에 인간의 저작물이 일부 부가되었다든지, AI의 저작물을 인간이 창의적으로 재배열했다든지 등 특정한 조건이 부가되면 AI도구가 생성한 저작물(텍스트, 이미지, 음성 등)도 제한적인 범위 내에서 저작권을 보호받을 수 있다.

 


 

<AI도구를 활용하여 만든 결과물에 대한 저작권 인정 사례>

 

  • 인간과 AI의 협업 저작물

    · AI가 생성한 저작물에 인간이 기여한 부분이 있다면, 그 인간 기여 부분에 대하여는 저작권이 인정될 수 있습니다.

·  AI가 만든 콘텐츠와 인간의 창작물을 결합하여 재생성한 경우, 해당 저작물에 대해서는 제한적으로 저작권이 보호될 수 있습니다.

  • 해외 사례

    · 미국 저작권청에서 AI가 만든 이미지와 인간이 텍스트를 작성한 만화에 대하여, 인간의 기여 부분에만 저작권을 인정한 사례가 있습니다.

※ AI가 생성한 부분은 저작권 보호 대상이 아님

 

 

출처: 한국연구재단, 연구개발에서 인공지능 도구의 활용과 관련된 연구윤리 이슈 분석

 

 

<AI도구를 활용하여 만든 결과물에 대한 저작권 분쟁 사례>

 

  1. Authors Guild et al. vs Open AI and Microsoft

    · 2023년 9월, Authors Guild와 소설 작가들이 OpenAI와 Microsoft를 상대로 집단소송 제기
    · AG측 주장: ChatGPT가 저작권이 있는 텍스트를 허가 없이 사용하였으며 이는 "대규모 체계적 절도"에 해당
    · OpenAI의 반론: AI 모델 개발은 "공정 사용" 조항에 따라 보호된다고 주장하며, 기술의 변형적 특성을 강조함

     

  2. New York Times vs Open AI

    · 2023년 12월, NYT가 OpenAI를 상대로 소송을 제기함
    · NYT측 주장: ChatGPT가 NYT 기사를 훈련 데이터로 사용함 (출력물이 기사 원본과 유사하다는 증거 제시)
    · OpenAI의 반론: ChatGPT는 NYT 콘텐츠의 대체물이 아니며, 문법과 구문은 저작권 보호 대상이 아니다.

 

        3. 기타

· StabilityAI, DeviantArt, Midjourney에 대한 유사한 소송 진행 중
· 공개 라이센스 데이터의 상업적 사용 제한 문제도 제기됨(GitHub Copilot과 관련된 소송 사례 포함)

 

출처: Prinston University Research Guides_Generative AI_Copyright

 

Image created by DALL-E

 

연구 윤리를 지키는 올바른 AI 사용을 위하여 다음과 같은 체크리스트를 확인할 수 있습니다.

 

  1. 생성형 AI의 결과물을 활용할 때 출처를 명확하게 표기했나요?
  2. 생성형AI를 활용할 때 타인의 권리가 침해될 수 있는 텍스트, 오디오, 이미지 등을 사용하지
    않았나요?
  3. 생성형 AI에 질문이나 정보를 입력할 때 타인의 명예를 훼손하거나 차별하는 내용이 포함되어
    있지는 않나요?
  4. 생성형 AI가 제시한 정보에 특정인이나 기관 또는 신념, 가치관을 비난하거나 혐오하는 내용이
    없나요?
  5. 생성형 AI로 정보 획득이나 콘텐츠 제작을 위해 민감한 정보(개인정보, 기업기밀 등)를 제공하지
    않았나요?
  6. 생성형 AI로 가짜뉴스, 스팸 등을 만들기 위해 부정확한 정보나 조작된 내용을 입력하지는
    않았나요?
  7. 생성형 AI가 결과로 제시한 정보에 한쪽으로 치우친 편향적이거나 차별적인 내용이 없나요?
  8. 생성형 AI가 제공한 정보 중 잘못된 정보가 있는지 확인하기 위해 의심하고 교차검증을 했나요?
  9. 생성형 AI에 완전히 의존하지 않고 보조적 수단으로서만 적절하게 활용했나요?
  10. 생성형 AI가 제시한 결과를 재해석하거나 자신의 아이디어를 덧붙여 활용했나요?

 

 

출처: 한국지능정보사회진흥원, 생성형 AI 윤리 가이드북

AI와 연구 윤리 더 알아보기

AI와 연구 활동    |    AI와 연구·출판 윤리    |    AI 도구의 활용    |    논문 작성 시 AI 관련 도구