Un puñado de documentos manipulados puede introducir puertas traseras en LLMs, según un estudio de Anthropic
Un puñado de documentos manipulados puede introducir puertas traseras en LLMs, según un estudio de Anthropic Resumen del hallazgo Anthropic, en colaboración con el Instituto de Seguridad de la IA del Reino Unido (UK AISI) y el Instituto Alan Turing, publica un estudio que muestra que unos pocos cientos de documentos maliciosos pueden «envenenar» un…

