Notice

[공유] 건국대 연구팀, '똑똑하고 정확한 AI' 위한 자연어처리 기술 개발

페이지 정보

작성자 no_profile 교수 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물  (203.♡.149.55) 댓글 0건 조회 162회 작성일 25-09-23 09:53

본문

KU News 기사를 공유합니다.

https://www.konkuk.ac.kr/konkuk/2098/subview.do?enc=Zm5jdDF8QEB8JTJGYmJzJTJGa29ua3VrJTJGMjU5JTJGMTE1ODM0MCUyRmFydGNsVmlldy5kbyUzRnBhZ2UlM0QxJTI2c3JjaENvbHVtbiUzRCUyNnNyY2hXcmQlM0QlMjZiYnNDbFNlcSUzRCUyNmJic09wZW5XcmRTZXElM0QlMjZyZ3NCZ25kZVN0ciUzRCUyNnJnc0VuZGRlU3RyJTNEJTI2aXNWaWV3TWluZSUzRGZhbHNlJTI2cGFzc3dvcmQlM0QlMjY=

건국대학교 김학수 교수(컴퓨터공학부)가 이끄는 자연어처리 연구팀이 대형언어모델(LLM)의 신뢰성과 활용성을 획기적으로 높일 수 있는 새로운 지식 편집 기술 ‘MAKE(Memory-Associated Knowledge Editing)’를 개발했다. 이번 연구 성과는 언어학 분야 세계 최고 수준 국제학술지 ‘Transactions of the Association for Computational Linguistics’(JCR 상위 99.8%, 자연어처리 분야 1위) 8월호에 게재됐다.

최근 챗GPT 등 초거대 언어모델이 사회 전반에서 활용되면서 모델이 보유한 지식의 최신성과 정확성을 유지하는 것이 핵심 과제로 떠오르고 있다. 기존의 지식 편집 기술은 특정 사실을 교체하는 데에는 유효하나, 그와 연관된 주변 지식을 충분히 반영하지 못해 일관성과 추론 능력에 한계가 있었다.

연구팀이 개발한 ‘MAKE’는 모델 내부 기억(memory)을 직접 활용해 새로운 사실뿐 아니라 연관된 주변 지식까지 자연스럽게 갱신할 수 있도록 설계됐으며, △특정 접미어로 모델이 내재적으로 보유한 관련 지식을 회상하는 ‘컨텍스트 회상 트리거(CRT)’ △새롭게 삽입된 사실을 내부 표현과 정렬하는 ‘AMA(Associated Memory Assignment) 손실 함수’ △기존의 잘못된 사실과 연결된 기억을 무효화하는 ‘IMI(Irrelevant Memory Invalidation) 손실 함수’를 결합해 작동한다. 이 과정을 통해 단순한 답변 교체 수준을 넘어, 새로운 지식과 주변 지식이 모델의 지식망에 일관되게 반영될 수 있게 됐다.

‘MAKE’는 국제적으로 활용되는 벤치마크 데이터셋(zsRE+, COUNTERFACT+, MQuAKE)을 통해 평가됐으며, 기존 기법 대비 다중 홉 추론과 문맥 활용 능력 등에서 일관성과 이식성이 크게 향상된 것으로 나타났다.

연구팀은 “대형언어모델의 지식을 안정적이고 일관되게 업데이트할 수 있는 메커니즘을 제시했다는 점에서 의미가 크다”며, “향후 챗봇, 검색엔진, 도메인 특화 AI 서비스 등 다양한 분야에서 더 신뢰성 있고 안전한 AI 구현에 기여할 것”이라고 밝혔다.

이번 연구에는 건국대 김학수 교수가 교신저자로, 박성식 컴퓨터공학부 졸업생이 주저자로 참여했으며, 본 연구는 한국연구재단과 정보통신기획평가원의 지원으로 수행됐다.

댓글목록

등록된 댓글이 없습니다.

Copyright ⓒ 2020 Natural Language Processing Lab. All rights reserved.