As autoridades da Coreia do Sul estão a investigar um caso em que a ferramenta de inteligência artificial ChatGPT terá sido utilizada como apoio no alegado planeamento de homicídios em série.
De acordo com informações avançadas pela imprensa internacional, o principal suspeito terá recorrido à tecnologia para obter orientações e estruturar pormenores relacionados com os crimes sob investigação.
O caso levanta novas preocupações quanto ao uso indevido de sistemas de inteligência artificial e reacende o debate em torno dos limites éticos e da regulação destas ferramentas digitais.
Especialistas sublinham que as plataformas de IA são desenvolvidas com mecanismos de segurança destinados a impedir a promoção ou facilitação de actividades ilegais. Ainda assim, episódios desta natureza reforçam a necessidade de monitorização permanente e de actualização contínua das salvaguardas tecnológicas.
As autoridades sul-coreanas prosseguem as investigações com o objectivo de apurar responsabilidades e clarificar de que forma a tecnologia terá sido utilizada no alegado planeamento dos crimes.
O caso volta a colocar em destaque o papel crescente da inteligência artificial na sociedade contemporânea, evidenciando simultaneamente o seu potencial transformador e os riscos associados a uma utilização indevida.
