티스토리 뷰

목차



    테크씬의 Hot Tech 뉴스 떠먹이기!

    AI를 활용한 디지털 범죄 컨셉 사진

    • 최근 꽤 많은 사기범이 AI를 이용해 곤경에 처한 가족을 사칭하고 돈을 송금하도록 속이고 있습니다.
      • 사기범들은 사랑하는 사람이 어려움에 부닥쳤을 때 도와주고 싶은 사람들의 마음을 악용해 사기를 칩니다. 이때 정교한 AI 기술을 이용해 사칭 전화를 걸고 있습니다.
      • 최근에는 AI를 통해 사람의 목소리를 정확하게 복제할 수 있고 다양한 질문과 상황에 지능적으로 대응하도록 프로그래밍할 수 있기 때문에 이러한 사기가 더욱 그럴듯하게 느껴집니다.
    • 노인 부부인 루스와 그렉은 손자를 사칭하며 현금을 요구하는 전화를 받은 후 이 사기의 희생양이 되었습니다.
      • 특히 노년층은 기술에 익숙하지 않고 가족이라고 주장하는 사람을 쉽게 신뢰하기 때문에 이러한 유형의 사기에 취약할 수 있습니다.

    • 2022년에 미국에서 36,000명 이상이 사칭 전화 사기의 피해를 보았으며, 그중 5,100건은 전화로 발생하여 1,100만 달러 이상의 손실을 초래했습니다.
      • OpenAI의 ChatGPT 및 DALL-E와 같은 생성형 AI 프로그램은 음정 및 악센트 분석을 사용하여 사람의 목소리를 재현할 수 있는 AI 음성 생성기와 같은 유해한 프로그램을 학습시키는 데 악용될 수 있죠.
    • 이러한 사기에 속지 않으려면 사칭 전화의 가능성을 인지하고 아주 사적인 비밀에 대한 질문을 하거나 상대방의 위치를 확인하여 출처를 확인해야 합니다.
      • 무엇보다, 사칭 전화 사기의 가능성을 인지하는 것이 예방의 첫 번째 단계입니다.
    • 이젠, AI를 통해 언어 모델을 훈련하는 데 사용되는 기술과 동일한 기술을 유해한 프로그램을 만드는 데에도 사용할 수 있다는 것을 항상 인지하고 있어야 하죠.
    • 생성형(Generative) AI는 긍정적인 측면이 많지만, 이 기술이 악의적인 목적으로 오용될 수 있는 위험은 항상 존재합니다.
      • 기술의 악용 사례들을 인지함으로써 피해자가 되는 것을 방지하고, 주변 사람들을 위험으로부터 안전하게 보호하기 위해 여러분이 먼저 노력해야 합니다. 테크씬이었습니다.


     

    뉴스 출처:  https://www.zdnet.com/article/scammers-are-using-ai-to-impersonate-your-loved-ones-heres-what-to-watch-for/

     

    Scammers are using AI to impersonate your loved ones. Here's what to watch out for

    The next time you get a call from a family member or friend in need, you might want to make sure it's not a robot first.

    www.zdnet.com

     

    반응형