AI가 가짜 계정으로 소셜 미디어를 장악할 수 있을까?

요리 팁을 얻거나 대중 연설을 돕는 등 ChatGPT는 많은 사람들이 인공 지능(AI) 시스템을 사용할 수 있는 첫 번째 기회였습니다.

ChatGPT는 OpenAI에서 개발한 고급 음성 처리 기술을 기반으로 합니다.

인공 지능(AI)은 책, 잡지 및 Wikipedia 항목을 포함하여 인터넷의 텍스트 데이터베이스를 사용하여 훈련되었습니다.

총 3000억 단어가 시스템에 입력되었습니다.

최종 결과는 기이하게 인간처럼 보일 수 있지만 백과 사전 지식을 가진 챗봇입니다.

부엌 찬장에 무엇이 있는지 ChatGPT에 말하면 레시피를 얻을 수 있습니다.

대규모 프레젠테이션에 대한 빠른 소개가 필요하십니까? 괜찮으세요

하지만 너무 좋은가요? 인간의 반응에 대한 설득력 있는 근사치는 그것을 싫어하는 사람들에게 강력한 도구가 될 수 있습니다.

학계, 사이버 보안 연구원 및 AI 전문가는 나쁜 행위자가 ChatGPT를 사용하여 반대 의견을 퍼뜨리고 소셜 미디어에 선전을 퍼뜨릴 수 있다고 경고합니다.

이전에는 잘못된 정보를 퍼뜨리려면 상당한 인력이 필요했습니다.

그러나 Georgetown University, Stanford Internet Observatory 및 OpenAI가 1월에 발표한 보고서에 따르면 ChatGPT와 같은 AI는 소위 트롤 군대가 작전을 확장하는 것을 훨씬 더 쉽게 만들 것입니다.

ChatGPT와 같은 정교한 언어 처리 시스템은 소셜 미디어에서 소위 영향력 있는 행동에 영향을 미칠 수 있습니다.

이러한 캠페인은 비판을 피하고, 여당이나 정치인에게 긍정적인 빛을 비추고, 정책을 지지하거나 반대할 수 있습니다.

그들은 또한 가짜 계정을 사용하여 소셜 미디어에 잘못된 정보를 퍼뜨립니다.

그러한 캠페인 중 하나는 2016년 미국 선거를 앞두고 시작되었습니다.

2019년 상원 정보위원회는 상트페테르부르크에 본부를 둔 인터넷 조사 기관이 만든 수천 개의 트위터, 페이스북, 인스타그램, 유튜브 계정이 힐러리 클린턴의 캠페인을 해치고 도널드 트럼프를 지원하는 데 집중되어 있다고 결론지었습니다.

그러나 미래의 선거는 잘못된 정보 공세와 싸워야 할 수도 있습니다.

1월에 발표된 AI 보고서는 “강력한 기술과 마찬가지로 낮은 비용으로 인간이 작성한 콘텐츠와 경쟁할 수 있는 언어 모델의 잠재력이 이러한 모델을 사용하기로 선택한 선전가에게 뚜렷한 이점을 제공할 수 있음을 시사합니다.

”라고 그는 말했습니다.

“이러한 이점은 더 많은 행위자에 대한 액세스를 확장하고 새로운 인플루언서 전술을 가능하게 하며 캠페인 메시지를 훨씬 더 맞춤화되고 잠재적으로 효과적으로 만들 수 있습니다.

”라고 보고서는 경고합니다.

증가할 수 있는 잘못된 정보의 양뿐만 아니라 품질도 마찬가지입니다.

그는 이 기사의 공동 저자이며 Georgetown Center for Security and Emerging Technology에서 CyberAI 프로젝트에 참여하고 있습니다.

“생성 언어 모델은 매번 많은 양의 원본 콘텐츠를 생성할 수 있으며 소셜 미디어 계정이나 뉴스 사이트에서 동일한 텍스트를 복사하여 붙여넣기 위해 각 선전가에 의존하지 않아도 됩니다.

”라고 그는 말합니다.

Goldstein은 계속해서 플랫폼에 잘못된 정보나 선전이 범람하면 대중이 무엇이 진실인지 분별하기가 더 어려워진다고 말했습니다.

종종 인플루언서와 관계를 맺는 나쁜 행위자의 표적이 될 수 있습니다.

그의 보고서는 또한 이러한 시스템에 대한 액세스가 일부 조직의 영역으로 남아 있지 않을 수 있다고 언급합니다.

“현재 안정적으로 수행할 수 있는 작업과 출력하는 언어가 제한된 최상위 언어 모델을 가진 회사나 정부는 거의 없습니다.

“더 많은 행위자가 최첨단 생성 모델에 투자함에 따라 선전가가 접근할 가능성이 높아집니다.

”라고 보고서는 말합니다.

AI 전문가이자 2016년 Uber가 인수한 AI 회사인 Geometric Intelligence의 설립자인 Gary Marcus는 악성 그룹이 스팸과 유사한 AI 생성 콘텐츠를 볼 수 있다고 말합니다.

“스패머는 가장 속기 쉬운 사람들이 링크를 클릭하고 가능한 한 많은 사람들에게 도달하는 스프레이 및 기도 접근 방식을 사용합니다.

하지만 AI를 사용하면 스프레이 건이 역사상 가장 큰 슈퍼 소커가 됩니다.

할 수 있습니다.

트위터나 페이스북과 같은 플랫폼이 가해자가 네트워크에 게시하는 내용의 4분의 3을 제거하더라도 “사람들을 오도하도록 설계될 수 있는 온라인 콘텐츠는 여전히 10배 이상 더 많습니다”라고 Marcus는 말했습니다.

말하다

가짜 소셜 미디어 계정의 확산은 Twitter와 Facebook 측면에서 골칫거리가 되었으며, 오늘날 언어 모델 시스템의 급속한 성숙은 이러한 플랫폼에 훨씬 더 많은 가짜 프로필을 범람시킬 것입니다.

카네기 멜론 대학의 컴퓨터 과학 교수인 Vincent Conitzer는 “ChatGPT와 같은 것이 가짜 계정의 확산을 이전에 본 적이 없는 수준으로 확장할 수 있습니다.

존재.”

Mr. Goldstein이 공동으로 작성한 2023년 1월 논문과 보안 회사 WithSecure Intelligence의 유사한 보고서는 생성 언어 모델이 소셜 미디어에 퍼질 수 있는 가짜 뉴스를 빠르고 효율적으로 생성할 수 있는 방법에 대해 경고합니다.

중요한 선거를 앞두고 유권자에게 영향을 미칠 수 있는 이야기.

그러나 chat-GPT와 같은 AI 시스템으로 인해 잘못된 정보와 가짜 뉴스가 더 큰 위협이 될 때 소셜 미디어 플랫폼은 최대한 능동적으로 대응해야 할까요? 일부 전문가들은 이러한 유형의 게시물을 시행하는 것이 느슨할 것이라고 말합니다.

Northwestern Institute on Complex Systems의 공동 책임자인 Luís A. Nunes Amaral은 “Facebook 및 기타 플랫폼은 가짜 콘텐츠를 표시하도록 설계되었지만 Facebook은 해당 테스트에서 눈에 띄게 실패했습니다.

”라고 말했습니다.

“이렇게 하지 않는 이유는 각 게시물을 모니터링하는 비용과 이러한 가짜 게시물이 사람들을 화나게 하고 분열시키고 참여를 장려하도록 설계되었다는 사실을 깨닫기 때문입니다.

그것이 페이스북에 도움이 됩니다.