AI và thao túng tâm lý trực tuyến

Trong bối cảnh cách mạng công nghiệp 4.0 và sự phát triển vượt bậc của trí tuệ nhân tạo (AI), lĩnh vực tâm lý học tội phạm đang chứng kiến sự chuyển dịch đáng kể trong các phương thức phạm tội trực tuyến. AI không chỉ hỗ trợ tội phạm trong việc tự động hóa quy trình mà còn khai thác sâu sắc các cơ chế tâm lý con người, biến hành vi lừa đảo qua mạng thành những hoạt động tinh vi, cá nhân hóa và quy mô lớn. Từ góc nhìn tâm lý học tội phạm, sự kết hợp này khai thác các điểm yếu cơ bản của con người như lòng tin, nỗi sợ hãi, hiệu ứng chân lý ảo và nguyên tắc xã hội quen thuộc, khiến nạn nhân dễ dàng rơi vào bẫy mà không nhận ra.
Công nghệ deepfake và voice cloning
Một trong những cách sử dụng AI phổ biến nhất trong lừa đảo qua mạng là công nghệ deepfake và voice cloning. Deepfake cho phép tội phạm tạo ra video, âm thanh hoặc hình ảnh giả mạo với độ chính xác cao, khai thác niềm tin trực quan của con người – một nguyên tắc tâm lý được mô tả là "thấy mới tin". Ví dụ, trong các vụ lừa đảo "bắt cóc ảo", tội phạm sử dụng AI để sao chép giọng nói của người thân nạn nhân từ chỉ ba giây âm thanh thu thập từ mạng xã hội, sau đó tạo cuộc gọi khẩn cấp giả mạo để đòi tiền. Phương thức này tận dụng nỗi sợ hãi nguyên thủy và phản ứng cảm xúc tức thì, làm suy yếu khả năng phán đoán lý trí. Các nghiên cứu chỉ ra rằng AI tăng cường khả năng lừa dối bằng cách khai thác sự dễ bị tổn thương về tâm lý và nhận thức của con người, dẫn đến sự gia tăng nhanh chóng trong tội phạm trực tuyến như lừa đảo tài chính và lạm dụng tình dục trẻ em.

AI tăng cường khả năng lừa dối bằng cách khai thác sự dễ bị tổn thương về tâm lý và nhận thức của con người
Bên cạnh đó, AI hỗ trợ các chatbot và mô hình ngôn ngữ lớn (LLMs) để thực hiện thao túng tâm lý kéo dài. Các công cụ như FraudGPT hoặc WormGPT cho phép tội phạm tạo ra các cuộc trò chuyện tự động, cá nhân hóa dựa trên dữ liệu thu thập từ hồ sơ trực tuyến của nạn nhân. Trong tâm lý học tội phạm, điều này đại diện cho sự tiến hóa của khoa học-kỹ thuật xã hội, nơi AI phân tích hành vi, sở thích và điểm yếu tâm lý để xây dựng lòng tin dần dần. Ví dụ, trong "pig-butchering scams" – lừa đảo "nuôi heo" – AI được sử dụng để tạo mối quan hệ tình cảm giả mạo, khai thác nhu cầu kết nối xã hội và sự cô đơn của nạn nhân. Các báo cáo quốc tế nhấn mạnh rằng AI tự động hóa sự tương tác, sử dụng lý thuyết tương tác biểu tượng để đồng xây dựng ý nghĩa trong giao tiếp, khiến nạn nhân tự nguyện tiết lộ thông tin hoặc chuyển tiền. Phương thức này khai thác hiệu ứng thông tin nhỏ giọt (drip-feeding) kích thích phản ứng cảm xúc và cô lập nạn nhân khỏi mạng lưới xã hội thực tế.
AI làm thay đổi cấu trúc động cơ và hành vi của tội phạm
Trước đây, lừa đảo đòi hỏi kỹ năng xã hội cao và rủi ro lớn; nay, AI hạ thấp ngưỡng tham gia bằng cách tự động hóa quy trình, cho phép tội phạm hoạt động quy mô lớn mà không cần tương tác trực tiếp. Các báo cáo toàn cầu cảnh báo rằng lừa đảo AI sẽ vượt qua phần mềm tống tiền (ransomware) trở thành rủi ro mạng hàng đầu, với tỷ lệ cao các vụ lừa đảo hóa đơn và đánh cắp danh tính. Tội phạm sử dụng AI để khai thác các nguyên tắc thuyết phục cổ điển, như uy quyền, khan hiếm và đồng thuận xã hội. Ví dụ, AI có thể tạo email giả mạo từ lãnh đạo doanh nghiệp, kết hợp deepfake video để tăng tính thuyết phục, dẫn đến các vụ chuyển khoản lớn. Điều này phản ánh sự chuyển dịch từ tội phạm cảm xúc sang tính toán động cơ lợi nhuận được tối ưu hóa bởi dữ liệu lớn (big data) và tự học của máy móc (machine learning).

AI có thể tạo email giả mạo từ lãnh đạo doanh nghiệp, kết hợp deepfake video để tăng tính thuyết phục
Hơn nữa, AI mở rộng phạm vi thao túng đến các nhóm dễ bị tổn thương, như người cao tuổi hoặc thanh thiếu niên, bằng cách phân tích dữ liệu hành vi để tạo nội dung cá nhân hóa. AI có thể tạo hình ảnh nhạy cảm giả mạo để tống tiền, khai thác sự xấu hổ và nỗi sợ xã hội. Từ góc nhìn tâm lý học, điều này tận dụng cơ chế tránh né và sự vô cảm đạo đức của tội phạm, dẫn đến tác động lâu dài như trầm cảm hoặc tự hại ở nạn nhân. Các nghiên cứu nhấn mạnh rằng AI tăng cường kỹ thuật xã hội bằng cách tạo nội dung đáng tin cậy ở quy mô lớn, vượt trội hơn so với lừa đảo thủ công.
Tác động xã hội sâu sắc của các hình thức lừa đảo sử dụng AI
Với chi phí toàn cầu lên đến hàng nghìn tỷ USD và dự báo tiếp tục tăng. Sự gia tăng này làm suy yếu lòng tin xã hội, tăng cường sự phi thực tế và thúc đẩy sự cô lập. Để đối phó, cần tích hợp AI vào phòng ngừa, như sử dụng mô hình phát hiện deepfake hoặc giáo dục nâng cao ý thức, hiểu biết xã hội. Các tổ chức đề xuất AI "thông minh cảm xúc" để hỗ trợ đội ngũ chống lừa đảo, hiểu rõ tâm lý thao túng. Pháp lý cũng cần cập nhật, với các quy định về trách nhiệm AI trong tội phạm.

Các tổ chức đề xuất AI "thông minh cảm xúc" để hỗ trợ đội ngũ chống lừa đảo
Tóm lại
AI đã biến thao túng và lừa đảo qua mạng thành công cụ tội phạm hiệu quả, khai thác sâu sắc các cơ chế tâm lý con người từ góc nhìn tâm lý học tội phạm. Sự kết hợp giữa tự động hóa, cá nhân hóa và lừa dối trực quan đòi hỏi sự can thiệp đa ngành, từ giáo dục, tâm lý đến công nghệ, để bảo vệ xã hội trước làn sóng tội phạm số mới. Việc hiểu rõ các nguyên tắc tâm lý đằng sau sẽ là chìa khóa để giảm thiểu rủi ro trong tương lai.
CVTL. Đỗ Nguyễn Anh Minh