영국 발명가는 AI가 건설 산업에 혁명을 일으킬 수 있다고 믿습니다.

영국 발명가는 AI가 건설 산업에 혁명을 일으킬 수 있다고 믿습니다.

ChatGPT, Techradar에 방해받지 않고 액세스할 수 있는 사기꾼 덕분에 인터넷 사기가 훨씬 더 위험해질 수 있습니다. 보고서.

널리 사용되는 AI 기반 챗봇인 ChatGPT는 지속적으로 헤드라인을 장식하고 있습니다. iframe 코드 디버깅에서 복잡한 컴퓨터 프로그래밍 코드에 이르기까지 모든 것을 작성할 수 있는 능력을 갖춘 ChatGPT는 AI를 올해의 기술 유행어로 설정했습니다.

엄청난 인기와 참여에도 불구하고 ChatGPT는 윤리 및 규제에 대한 우려를 불러일으켰습니다.

또한 읽기 : ChatGPT 사용자 'Jailbreak' AI, Dan Alter Ego 발휘

최근 신고 Norton Labs의 사이버 보안 연구원이 발표한 내용은 위협 행위자가 ChatGPT를 남용할 수 있는 세 가지 주요 방법을 설명합니다. 이 보고서는 ChatGPT가 딥 페이크 콘텐츠 생성, 피싱 생성 및 맬웨어 생성을 통해 보다 효과적인 방식으로 인터넷 사기를 만들기 위해 악용될 수 있다고 지적했습니다.

"Norton Labs는 사기꾼들이 대규모 언어 모델의 기능에 주목하고 사이버 범죄를 더욱 현실적이고 믿을 수 있게 만드는 방법을 테스트하고 있다고 예상하고 있습니다."라고 보고서에서 밝혔습니다.

"고품질의 잘못된 정보 또는 대규모의 잘못된 정보"를 생성하는 도구의 기능은 봇 팜이 불화를 보다 효과적으로 심화시키는 데 도움이 될 수 있습니다. Norton에 따르면 이를 통해 악의적인 행위자는 손쉽게 "의심을 불러일으키고 여러 언어로 내러티브를 조작"할 수 있습니다.

매우 설득력 있는 '잘못된 정보'

비즈니스 계획, 전략 및 회사 설명을 설득력 있는 방식으로 작성하는 것은 ChatGPT의 어린이 놀이입니다. 그러나 이 가능성은 사기로 변할 수 있는 잘못된 정보의 위험도 높입니다.

보고서는 "ChatGPT가 생성한 콘텐츠가 의도하지 않게 부정확할 수 있을 뿐만 아니라 악의적인 행위자가 이러한 도구를 사용하여 어떤 식으로든 사람들에게 해를 입히는 데 사용되는 콘텐츠를 의도적으로 만들 수도 있습니다."라고 보고서에서 밝혔습니다.

"고품질의 잘못된 정보 또는 대규모의 허위 정보를 생성하는 능력은 불신으로 이어지고 다른 언어로 내러티브를 형성할 수 있습니다."

노턴 연구소

노턴 연구소

매번 동일한 정보로 개별 응답을 생성하기 때문에 추적할 수 없는 ChatGPT를 사용하면 제품 리뷰 작성이 점점 쉬워집니다. 그 능력에도 불구하고 "가짜 리뷰와 조잡한 제품을 찾아내는 것"이라는 과제를 안고 있습니다.

걱정스럽게도 이 도구는 괴롭힘에도 사용될 수 있습니다.

보고서는 "소셜 미디어에서 사람들을 침묵시키거나 괴롭히기 위해 이러한 도구를 사용하는 괴롭힘 캠페인은 또한 발언에 오싹한 영향을 미칠 수 있는 결과"라고 지적합니다.

피싱 캠페인의 ChatGPT

ChatGPT는 특히 다른 언어로 사람의 소리가 나는 텍스트를 생성하는 데 능숙하며 독자는 텍스트가 AI 또는 인간에 의해 생성되었는지 여부에 대해 더 현명하지 않습니다. ChatGPT의 개발사인 OpenAI조차 "AI가 쓴 텍스트를 모두 안정적으로 감지하는 것은 불가능하다"며 AI가 쓴 텍스트인지 식별할 수 없다.

ChatGPT가 피싱 캠페인에 사용될 가능성은 실제입니다.

"악의적인 행위자는 ChatGPT를 사용하여 합법적인 출처에서 온 것처럼 보이는 피싱 이메일이나 소셜 미디어 게시물을 만들 수 있으므로 이러한 유형의 위협을 감지하고 방어하기가 더 어려워집니다."라고 보고서는 밝혔습니다.

그 인기가 높아짐에 따라 "피싱 캠페인과 그 정교함"의 수가 증가할 가능성이 있습니다.

이 보고서는 "악의적인 행위자가 가장하고 싶은 회사의 악의적이지 않은 메시지의 실제 예를 ChatGPT에 제공하고 AI가 악의적인 의도를 가진 동일한 스타일을 기반으로 새로운 메시지를 만들도록 명령할 수 있습니다."라고 제안했습니다.

이러한 캠페인은 개인을 속여 개인 정보를 공개하거나 범죄 조직에 돈을 보내는 데 매우 성공적일 수 있습니다. Norton Labs는 소비자에게 "링크를 클릭하거나 개인 정보를 제공"할 때 주의할 것을 권고했습니다.

ChatGPT는 맬웨어를 생성할 수 있습니다.

코드를 생성하고 다양한 프로그래밍 언어를 적용하는 것은 단순히 ChatGPT 서비스의 일부입니다. 따라서 사기꾼이 이를 사용하여 맬웨어를 생성하는 것은 놀라운 일이 아닙니다.

보고서에 따르면 "올바른 프롬프트를 통해 초보 맬웨어 작성자는 원하는 작업을 설명하고 작동하는 코드 스니펫을 얻을 수 있습니다."라고 합니다. 이것은 대혼란을 일으킬 만큼 충분히 발전된 맬웨어 공격의 심각한 위협이 됩니다.

보고서는 "한 가지 예는 비트코인 ​​지갑 주소가 클립보드에 복사될 때 이를 감지하는 코드를 생성하여 맬웨어 작성자가 제어하는 ​​악성 주소로 대체할 수 있도록 하는 것"이라고 설명했습니다.

결과적으로 이러한 챗봇의 가용성은 악성 코드의 정교함을 증가시킬 것입니다.

타임 스탬프 :

더보기 메타뉴스