[아이뉴스24 박진영 기자] 과학기술정보통신부와 한국인터넷진흥원은 사이버 위협을 선제적으로 예방하고 대응체계를 강화하기 위해 ‘2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망’을 17일 발표했다.

사이버보안 [사진=픽사베이]

◇올해 SW 공급망 공격 확대…개인정보 노리는 메신저 사칭 공격도

분석에 따르면, 올해는 소프트웨어(SW) 공급망 공격이 빈번하게 발생했다. 지난 3월 해킹 그룹 라자루스의 소행으로 추정되는 보안 인증 프로그램의 취약점을 노린 해킹 공격이 확인됐다. 또 미상의 해킹 그룹이 국내 보안프로그램 개발사 내부에 침투해 업데이트 파일 배포 서버를 통해 악성코드를 유포하고 고객사들의 시스템까지 감염시키는 공격도 발생했다.

SW 공급망 공격은 초기 탐지와 조치가 어렵고 그 파급력도 크기 때문에 공격자들에는 매우 효율적인 공격으로 이용되고 있다. 이러한 SW 공급망 공격은 앞으로도 계속 증가할 것으로 예측된다.

과기정통부와 KISA는 유관기관들과 협력해 SW 공급망 공격을 분석하고 제조사와 함께 보안패치를 개발하는 한편 보안공지와 대국민 안내 등을 통해 패치 적용을 독려하는 등 피해확산 방지를 위해 대응하고 있다. 현재 마련 중인 ‘SW 공급망 보안 가이드라인’을 조만간 발표해 보안 취약점 점검과 조치도 보다 효율적으로 지원할 계획이다.

올해 사이버 공격의 또 다른 특징은 포털이나 메신저 등 이용자가 많은 서비스를 정교하게 사칭해 이용자 개인정보를 노리는 사회공학적 기법의 피싱 공격이 진화했다는 것이다. 유출된 개인정보를 이용해 또 다른 피해로 연결되는 사례도 급증했다.

과기정통부와 KISA는 통신사들과 협력해 개인정보 입력을 유도하는 피싱사이트를 긴급 차단하고, 보호나라 웹사이트와 118 신고전화 등을 통해 피해여부 확인과 조치방법 등을 안내하고 있다. 이용자들도 메신저 서비스에 2차 인증 기능을 설정하고, 출처가 불분명한 사이트는 접속하지 않는 등 주의가 필요하다.

◇내년 생성형 AI 악용 사이버 범죄 증가할 것

내년에는 생성형 인공지능(AI)를 악용한 사이버 범죄가 증가할 것으로 예상된다.

챗GPT를 화두로 한 생성형 AI 기술은 사용자가 보안에 대한 전문적인 지식이 없더라도 손쉽게 악성코드 제작뿐 아니라 취약점 확인, 사회 공학적 공격, 음성 위변조 등 다양한 사이버 공격에 악용될 수 있는 위험성을 내포하고 있다.

공격 대상의 정보를 수집하고 분석하는 것도 생성형 AI를 사용한다면 더욱 자동화하고 가속화될 수 있을 것이다. 생성형 AI와 AI 대규모 언어 모델(LLM)을 활용해 범죄 대상과 범죄 방법을 제공하는 서비스가 다크웹 등 해킹 포럼에 소개된다면, 누구나 쉽게 사이버 범죄에 가담할 수도 있다는 점에서 우려가 커지고 있다.

실제로 공격자가 기술 용어나 특정 비즈니스 영역에 능통하지 않더라도 공격 대상이 쉽게 속을 수 있도록 정교하게 이메일 본문을 작성하고 악성 프로그램을 제작해 주는 등 피싱 이메일 공격을 도와주는 생성형 AI 기반의 사이버 범죄 도구가 최근 발견되기도 했다. 기존의 백신이 탐지하기 어려운 변종 악성코드를 만드는 데도 생성형 AI 기술이 더욱 많이 이용될 것으로 보인다.

생성형 AI를 악용하는 사이버 범죄에 적극적으로 대응할 수 있는 관련 보안기술 개발 필요성도 높아질 것으로 에상된다. 공격 가능성이 높은 취약점을 미리 식별하고 대응하기 위한 기술 개발이나, 생성형 AI 모델의 결과물을 식별하고 진위여부를 판별할 수 있는 기술 등을 당장 현장에서 요구할 수 있다.

홍진배 과기정통부 네트워크정책실장은 “사이버 공격은 단순히 서비스 장애나 불편을 넘어서 사회 전체를 마비시키고 생명을 위협할 수 있는 중대사고가 될 수 있다”면서 “알려진 사이버 위협은 재발하지 않도록 철저히 분석해 대책을 마련하고, 새로운 위협은 선제적으로 예방할 수 있도록 노력해 안전한 디지털 세상을 만들어 가겠다”고 밝혔다.

이 기사에 대해 어떻게 생각하시나요?
+1
0
+1
0
+1
0
+1
0
+1
0

댓글을 남겨주세요.

Please enter your comment!
Please enter your name here