카드뉴스

해외 현장, "호주 퀸즐랜드주 지능형교통시스템 스트림스(STREAMS)로 교통체증 완화 등"

배너

발행인의 글


[2024 국정감사] 김교흥, 석유공사 자료 부실제출 질타

"여야를 떠나 우리나라에 석유·가스가 나오는 걸 반대하는 사람이 한 명이라도 있나. 석유공사가 자꾸 자료를 안 주고 쉬쉬하고 말을 바꾸다 보니 의혹과 불신이 생기는 것“ 10월 17일 울산 한국석유공사에서 열린 국회 산업통상자원중소벤처기업위원회 국정감사에서 동해 심해 가스전 사업, 일명 대왕고래 프로젝트와 관련, 김교흥 더불어민주당 의원은 석유공사의 부실한 자료제공을 질타했다. 김교흥 더불어민주당 의원은 이어 "윤석열 대통령은 '삼성전자의 시총의 5배다'라고 했다가 뒤에 산업부 장관은 '시총 2배'라며 말이 바뀌었다"며 "이런 것들이 자꾸만 자료를 안 주고 누적되고 바뀌고 하니깐 문제"라고 지적했다. 대왕고래 프로젝트의 자문사로 선정된 S&P 글로벌에 대한 참여 이유와 선정 과정 등에 대한 자료 요청도 이어졌다. 같은 당 김원이 의원은 "S&P 글로벌에 대해 찾아보니 지난 6월 윤석열 대통령이 대왕고래 프로젝트를 발표한 뒤 이튿날 해당 사업이 성공률이 매우 낮다는 내용의 보고서를 발표한 곳"이라며 "비관적인 전망을 냈던 곳이 4개월 만에 투자 자문사로 둔갑했다"고 의혹을 제기했다. 이어 "참여 이유와 선정 과정 등에 의문이 들어 자료 요청을 했

가짜 AI 잡는 Al 나왔다

챗GPT 할루시네이션(hallucination) 오류 지녀 AI가 각종 의학 학술지에 실린 논문을 참조해 만든 논문이 의학 연구자마저 속일 정도로 정교해졌다. 이에 따라 한 학회에서는 “대규모 인공지능 언어 모델(LLM)을 이용한 논문 작성을 금지한다”고 밝혔다. 미국 노스웨스턴대 캐서린 가오 박사 연구진은 “챗GPT로 작성한 의학 논문 초록 50편이 표절 검사 프로그램을 100% 통과했고, 전문가들마저 제출된 초록의 32%를 걸러내지 못했다”는 연구 결과를 발표한 바 있다. 챗GPT는 ‘진짜 같은 가짜 논문’을 만들어 낸다는 것이다. 챗GPT를 비롯한 언어모델은 자신이 잘 모르는 문제에도 그럴듯한 대답을 내놓는 오류, 즉 할루시네이션(hallucination)을 범하기 때문이라고 한다. 챗GPT 생성 가짜 의학논문 잡아내는 AI 개발 최근 챗GPT 등 생성형 인공지능(AI)을 이용해 만들어낸 가짜 의학논문을 최고 94%의 정확도로 판별할 수 있는 기계학습(machine learning) 알고리즘이 개발됐다. 뉴욕주립대 빙엄턴 캠퍼스 아메드 아브딘 하메드 박사팀은 지난 9월 4일 과학 저널 사이언티픽 리포트(Scientific Reports)에서 챗GPT가