동향분석-[NRF 동향]-img-main.jpg


AI 활용 경험과 그에 대한 인식


한국연구재단은 건전한 학술 생태계 구축을 위한 노력을 지속해 오고 있습니다. 매년 ‘대학 교원의 연구 윤리 인식 수준’을 조사하여 대학 교원의 연구 윤리 전반에 관한 인식 수준을 모니터링하는 것도 그러한 노력의 일환인데요. 재단은 2023년 조사에서 생성형 AI에 대한 연구자들의 인식을 알아보기 위해 관련 문항을 추가하였습니다. 연구에 있어 생성형 AI 도구가 활용되는 현상을 인식하고, 이러한 상황이 연구 윤리에 미치는 영향이 있을 것이라는 판단이었습니다. 이번 콘텐츠에서는 2023년 대학 교원 대상 연구 윤리 인식 조사 총 25개 문항 중 생성형 AI와 관련된 7개 문항에 대한 조사 결과를 소개하고자 합니다. 설문 대상은 2022년도 한국연구재단 과제를 수행한 대학 교원 33,699명이며, 설문 기간은 2023년 10월 16일부터 23일까지입니다. 분석 대상에 포함된 유효 응답은 2,822명으로 나타났습니다.


연구자들은 생성형 AI 도구가 연구 윤리에 미치는 영향력에 대해 어떠한 전망을 갖고 있을까요? 2,822명의 응답에 따르면 53.5%의 연구자가 문제가 되고 있거나, 문제가 될 것이라고 인식하고 있습니다. 걱정할 수준이 아니라는 의견은 31.4%로 나타났고, 문제 될 예정이라는 의견이 48.1%, 이미 심각한 문제라는 견해는 5.4%로 나타났습니다. 잘 모른다는 응답은 15.2%였습니다.


동향분석-[NRF 동향]-img-01.jpg


AI 도구를 사용하는 연구자의 비율은 어느 정도이며, 활용 빈도는 어떠할까요? 2,822명 중 10.9%의 연구자가 생성형 AI 도구를 연구 활동에 활용한 경험이 있는 것으로 나타났습니다. 이공 분야 연구자가 인문사회 연구자보다 AI 도구 활용 경험이 많았습니다. 연구 활동 부문별로 살펴보면, 309명 중 보고서 작성 (문법, 단어 검토 등 윤문)에 사용한다는 응답이 가장 많았고, 자료 검토 (선행 연구 검토, 자료 수집 및 분석 등) 활용이 그다음 순으로 많았습니다. 연구 문제 생성 등 연구 설계에 활용한다는 응답은 가장 적게 나타났습니다.


동향분석-[NRF 동향]-img-02.jpg


그렇다면 연구자들은 AI 활용에 대해 어떻게 인식하고 있을까요? 조사 결과에 따르면 2,822명 중 43.2%가 논문 작성 시 생성형 AI 활용을 연구 부정 행위라고 인식하고 있습니다. 연구 부정 행위가 아니라고 응답한 비율은 40.1%로, 두 의견의 비율이 크게 차이 나지 않습니다.

반면, 논문 작성 과정에서 생성형 AI를 활용한 경우 이에 대해 기술하지 않는 것을 연구 부정 행위라고 생각하는 연구자의 비율은 62.8%, 그렇지 않다는 응답은 23.6%로 의견이 갈렸습니다. 논문 심사 또는 과제 평가를 위해 생성형 AI를 활용하는 것이 비밀 유지 위반이라고 생각하는 연구자의 비율은 43.8%, 그렇지 않다고 응답한 비율은 36.4%로 나타났습니다.


동향분석-[NRF 동향]-img-03.jpg


AI 활용의 유용성과 권고사항에 대한 인식


연구자들은 논문 작성 등 연구 활동에서 AI 도구를 사용하는 경우와 관련된 권고사항에 대해 어떻게 생각하고 있을까요? 재단은 연구자들에게 ‘AI 도구 활용 명시’, ‘사용한 AI 도구와 명령문 명시’, ‘AI 도구 이름 및 버전을 명시’, ‘AI가 작성한 내용의 진위 여부 확인’, ‘AI가 작성한 내용의 편향성 확인’, ‘심사자 및 평가자의 AI 활용 명시’ 총 6개 항목을 제시했는데요. 2,822명 중 81.1%가 ‘AI가 작성한 내용의 편향성 확인’이 중요하다는 의견을 밝혔습니다. ‘AI가 작성한 내용의 진위 여부 확인’이 중요하다는 의견은 79.5%, ‘심사자 및 평가자의 AI 활용 명시’가 중요하다는 의견은 72.3%로 나타났습니다.


동향분석-[NRF 동향]-img-04.jpg


이번에는 연구자들의 AI 활용 혜택에 대한 인식을 알아보겠습니다. 2,822명 중 67.1%가 ‘연구 수행 속도 향상’, 57.4%가 ‘연구 수행 부담 경감’, 39.2%가 ‘새로운 아이디어 도출’, 36.3%가 ‘연구 질 향상’을 AI 활용의 유용성으로 꼽았습니다.


동향분석-[NRF 동향]-img-05.jpg


AI 활용 시 예상되는 문제점은?


앞서 소개한 조사 결과에 따르면, AI를 연구에 활용 중인 연구자들은 10.9%에 불과하지만, 연구자들의 53.5%는 AI가 학계의 연구 윤리 준수에 이미 심각한 문제가 되고 있거나 될 예정이라고 인식합니다.

그렇다면 연구자들은 연구 과정에서 생성형 AI 활용 시 어떤 문제점이 발생할 거라고 예상할까요? 연구자들은 복수 응답이 가능한 문항에서 ‘내용의 신뢰성’, ‘AI 오작동’, ‘정보 보안’, ‘데이터 편향’, ‘개인정보 유출’ 순으로 응답했습니다.


동향분석-[NRF 동향]-img-06.jpg


이번에 소개한 생성형 AI에 대한 연구자들의 인식 조사는 ‘대학 교원의 연구 윤리 인식 수준’ 조사의 일부입니다. 전체 조사 결과가 궁금하신 분들은 한국연구재단의 연구 윤리 보고서 ‘2023년 대학 교원 연구 윤리 인식 수준 조사’에서 확인하실 수 있습니다.


‘2023년 대학 교원 연구 윤리 인식 수준 조사’ 보고서 바로가기:

https://www.nrf.re.kr/cms/board/library/view?menu_no=419&o_menu_no=&page=1&nts_no=213196&nts_cat=REPORT_L_04&search_type=NTS_TITLE&search_keyword=&nts_cat=REPORT_L_04


출처: https://webzine.nrf.re.kr/nrf_2403/sub_1_03.php