동향분석-[NRF 동향]-img-main.jpg


앞서 살펴보았듯 생성형 AI의 활용은 일반인에게 거스를 수 없는 흐름이 되었습니다. 이는 연구자의 연구개발에 있어서도 마찬가지인데요. 최근 해외 주요국 관계 기관에서는 연구개발 활동 관련 AI 활용 가이드라인을 제시했습니다. NIH (National Institutes of Health, 미국국립보건원, 2023.6.)와 NSF (National Science Foundation, 미국국립과학재단, 2023.12.) 등 미국 기관과 ARC (Australian Research Council, 호주 연구위원회, 2023.7.), DFG (Deutsche Forschungsgemeinschaft, 독일 연구협회, 2023.9.) 등이 가이드라인을 발표했습니다. NSF, NIH, ARC, DFG 등 공통적으로 과제 평가 시 생성형 AI 활용을 금지하는 한편 제안서 작성에 활용 시 이를 명시하는 것과 관련하여서는 기관 별로 조금씩 차이가 있습니다.


해외 펀딩기관의 AI 활용 가이드라인 적용 대상


동향분석-[NRF 동향]-img-01.png


구체적으로 내용을 살펴보면 세부 사항은 조금씩 다르지만 대체로 동료 심사에 AI 기술 활용을 금지하고, AI 기술을 보고서 작성에 활용할 시 주의 사항을 다루고 있습니다.


주요국의 연구개발 활동 관련 AI 활용 가이드라인 (요약)


미국 국기.png 미국 NIH, 동료 심사 기밀 유지 및 연구 진실성에 대한 요구

NIH는 심사자들이 NIH 과제 심사를 위한 분석이나 평가의견 작성 시 AI 기술의 활용을 금지한다.

심사자들은 NIH 과제의 제안서나 평가의견에서 유래된 콘텐츠나 독창적 개념 (original concept)을 온라인 생성형 AI 도구에 업로드하거나 공유하는 것이 'NIH의 동료 심사 기밀 유지 및 연구 진실성 요구사항'의 위배에 해당하는 점을 인식해야 한다.

▶ Peer Review에 활용 금지


호주 국기.jpg 호주 ARC, 연구 과제 평가의 기밀성과 진실성에 대한 확고한 조치

ARC는 연구제안서 신청자들에게 제안서 작성 과정에서 생성형 AI 도구를 활용할 경우 주의 (타인 지재권 침해, 제안서의 진실성 등)를 기울일 것을 권고한다.

생성형 AI 도구에 자료를 노출시키는 것은 기밀 유지 의무를 위반하는 것이기 때문에 ARC 지원 과제 평가자들은 그들의 평가 활동의 일환으로 생성형 AI 도구를 사용해서는 안 된다.

▶ Peer Review에 활용 금지+보고서 작성 등에 활용 시 주의 사항 권고


독일 국기.jpg 독일 DFG, 연구 진실성에 입각한 AI 사용 여부의 구체적 공개 요구

생성형 AI의 사용이 연구자의 콘텐츠 관련 공식적 책임을 면제시키지는 못한다.

연구 결과를 공개할 때, 연구자들은 연구 진실성에 근거하여 생성형 AI를 사용했는지와 사용했다면 어떤 모델을 어떤 목적으로, 어느 정도까지 사용했는지 공개해야 한다.

결과물에 대한 책임을 질 수 있는 자연인만이 연구 출판물의 저자로 표시될 수 있다. 저자들은 생성형 AI의 사용이 타인의 지적재산권을 침해하지 않고 표절과 같은 형태의 연구 부정 행위를 초래하지 않도록 해야 한다.

연구제안서 등에 대한 심사의견서 준비에서 생성형 AI를 사용하는 것은 평가 과정의 보안 유지 때문에 허용되지 않는다.

▶ Peer Review에 활용 금지+보고서 작성 등에 활용 시 주의 사항 권고


중국 국기.jpg 중국 과학기술부, 연구 과제 신청서 작성부터 심사까지 면밀한 가이드라인

(연구 과제 신청서 작성 시) 생성형 AI의 직접 활용을 불허함.

(연구 수행 시) 생성형 AI를 관련 규정에 맞게 사용해야 함.

(데이터 관리) 규정에 따라 합리적으로 생성형 AI를 사용해야 함.

(인용 표기) 생성형 AI로 산출된 자료는 명확히 그 과정을 표기해야 함.

(문헌 인용) 생성형 AI로 산출된 참고 자료는 검증 없이 사용 불가

(성과 표시) 생성형 AI는 성과물의 공저자가 될 수 없음.

(출판 시) 생성형 AI 사용 정보를 공개해야 함.

(심사 과정) 생성형 AI 사용 시 심사 내용 누출에 주의해야 함.

▶ Peer Review에 활용 금지+보고서 작성 등에 활용 시 주의 사항 권고


미국 국기.png 미국 NSF, 제안서 작성에 생성형 AI 도구 활용 시 명시 권장

(과제 심사) NSF 연구 과제 심사자는 제안서, 심사 정보 및 관련 기록을 인가되지 않은 생성형 AI 도구에 업로드하지 말아야 함.

(과제 제출) 연구 과제 신청자들이 제안서 작성 과정에서 생성형 AI 도구를 활용한 경우 이를 어떻게 활용하였는지를 제안서 명시 권장

▶ Peer Review에 활용 금지+보고서 작성 등에 활용 시 주의 사항 권고



출처

미국 NIH, 동료 심사 기밀 유지 및 연구 진실성에 대한 요구

The Use of Generative Artificial Intelligence Technologies is Prohibited for the NIH Peer Review Process (공표일 : 2023년 6월 23일)

https://grants.nih.gov/grants/guide/notice-files/NOT-OD-23-149.html


미국 NSF, 제안서 작성에 생성형 AI 도구 활용 시 명시 권장

Notice to research community: Use of generative artificial intelligence technology in the NSF merit review process (공표일: 2023년 12월 14일)

https://new.nsf.gov/news/notice-to-the-research-community-on-ai


호주 ARC, 연구 과제 평가의 기밀성과 진실성에 대한 확고한 조치

Policy on Use of Generative Artificial Intelligence in the ARC’s grants programs (공표일 : 2023년 7월 7일)

https://www.arc.gov.au/sites/default/files/2023-07/Policy%20on%20Use%20of%20Generative%20Artificial%20Intelligence%20in%20the%20ARCs%20grants%20programs%202023.pdf


독일 DFG, 연구 진실성에 입각한 AI 사용 여부의 구체적 공개 요구

Statement by the Executive Committee of the Deutsche Forschungsgemeinschaft (DFG, German Research Foundation) on the Influence of Generative Models of Text and Image Creation on Science and the Humanities and on the DFG’s Funding Activities (공표일 : 2023년 9월 21일)

https://www.dfg.de/resource/blob/289676/89c03e7a7a8a024093602995974832f9/230921-statement-executive-committee-ki-ai-data.pdf


중국 과학기술부, 연구 과제 신청서 작성부터 심사까지 면밀한 가이드라인

科技部监督司发布 (2023, 负责任研究行为规范指引) 과학기술감독부 책임 있는 연구 수행을 위한 지침 (공표일 : 2023년 12월 21일)

https://www.most.gov.cn/kjbgz/202312/t20231221_189240.html


출처: https://webzine.nrf.re.kr/nrf_2403/sub_1_02.php