Les chatbots IA comme ChatGPT offrent de formidables possibilités pour des applications positives comme la recherche scientifique ou l’éducation, mais peuvent aussi représenter une menace s’ils tombent entre de mauvaises mains.
Par exemple, les cybercriminels pourraient s’en servir pour créer des emails de phishing ou même pour coder des malwares.
Afin d’éviter de telles dérives, OpenAI a mis en place des barrières de sécurité et un système de censure visant à rejeter automatiquement les prompts mal intentionnés. Il en va de même pour Google et son IA Bard.