Por: Mtro. Rodolfo Guerrero Martínez (México).

La Ingeniería de Prompts (PE) ha trascendido de ser una habilidad técnica a una competencia crítica en la economía del conocimiento. En consecuencia, su impacto en el ámbito legal es transformador, fungiendo como un copiloto esencial para la eficiencia profesional.

Sin embargo, esta misma capacidad de dirección precisa de los Grandes Modelos de Lenguaje (LLMs) conlleva riesgos exponenciales en la ciberseguridad, desde ataques de inyección de prompts hasta el primer ciberespionaje a gran escala asistido por agentes de IA.

Por consiguiente, este análisis explorará la naturaleza dual del prompting y subraya la urgencia de adoptar estrategias de defensa robustas, especialmente en sectores donde la precisión y la confidencialidad son primordiales.

I. Fundamentos de la ingeniería de prompts

La Ingeniería de Prompts (PE) se define como la técnica de elaborar meticulosamente entradas o consultas (inputs) para dirigir los modelos de Inteligencia Artificial (IA) hacia la generación de resultados particulares e intencionados. En esencia, es el arte y la ciencia de comunicarse eficazmente con los LLMs. De ahí que, la formulación inicial del prompt tenga un impacto significativo en la calidad y relevancia del contenido resultante.

Para asegurar la máxima eficacia, los prompts deben ser claros y concisos, utilizando lenguaje preciso y verbos de acción. Un prompt efectivo consta de tres partes principales: el contexto, la solicitud (ask) y el formato de salida deseado. Además, la ingeniería de prompts se nutre de diversas disciplinas, incluyendo la lingüística, la ciencia cognitiva y la ética, y es crucial para garantizar la consistencia, la precisión y el control de sesgos en las respuestas de la IA.

Por lo tanto, dominar esta habilidad es vital para aprovechar todo el potencial de la IA, lo que se traduce en respuestas más precisas y relevantes. Este enfoque se está consolidando como una habilidad práctica y adaptable que facilita una comprensión más profunda de la interacción humana con la IA, siendo crucial en industrias como la legal.

II. El prompting en el ámbito legal

El sector legal ha adoptado la IA generativa como un copiloto capaz de mejorar la eficacia y eficiencia de los abogados, permitiéndoles enfocar su atención en el trabajo legal más complejo y de alto valor.

Efectivamente, el prompting transforma tareas cotidianas como la redacción legal (creación de borradores de contratos y escritos), la investigación (resumen de información de diversas fuentes y extracción de tendencias) y el análisis legal (evaluación de riesgos y cumplimiento de contratos). Firmas como Thomson Reuters ya utilizan la ingeniería de prompts en sus herramientas para extraer jurisprudencia y precedentes relevantes de bases de datos masivas.

A este respecto, las habilidades fundamentales de los abogados están intrínsecamente alineadas con los requisitos de la PE. La formación legal en el uso de lenguaje con excepcional cuidado se aplica directamente a la redacción de prompts que minimizan la ambigüedad y maximizan la calidad de la respuesta. Del mismo modo, la capacidad de un abogado para enmarcar problemas de manera clara se traduce en la formulación de una consulta que guía a la IA hacia una salida defendible y relevante.

En primer lugar, resulta fundamental destacar que la claridad en la elaboración de un prompt legal es determinante para el éxito de la tarea, de modo similar a lo que ocurre en la redacción de un escrito judicial. De esta forma, técnicas como el Prompting Basado en Roles adquieren especial relevancia, ya que al asignar una identidad profesional específica al modelo —por ejemplo, indicando que “eres un abogado mercantilista”— se logra orientar tanto el tono como la postura evaluativa de la inteligencia artificial.

Asimismo, el Prompting Contextual exige la integración de materiales sustantivos, tales como contratos o estatutos, directamente en el prompt, lo que contribuye a evitar que el modelo genere información incorrecta o ficticia.

Adicionalmente, es posible ilustrar la aplicación de prompts legales estructurados mediante diversos ejemplos. Por un lado, para la redacción de cláusulas, se puede solicitar: “Soy un abogado actuando para el licenciante en un acuerdo de licencia de propiedad intelectual de software. Redacta una cláusula de indemnidad de propiedad intelectual a favor del licenciante. Asegúrate de que las cláusulas estén en lenguaje legal formal, conciso y en voz activa”.

Por otro lado, en el contexto del litigio, se plantea: “Analiza la declaración jurada del demandante contra la declaración de la demanda para identificar inconsistencias. Presenta el análisis en formato de tabla, referenciando las secciones o párrafos relevantes en ambos documentos”.

En última instancia, para investigaciones internas, el prompt podría ser: “Soy el asesor legal interno de mi empresa. Genera una cronología de las comunicaciones entre el ex empleado y todas las partes externas relacionadas con el Proyecto X a partir de los archivos de correo electrónico adjuntos [insertar archivo]. Organiza por fecha, destinatario y breve resumen del contenido (no más de 20 palabras)”.

Sin embargo, no puede soslayarse que la incorporación de la inteligencia artificial en el ámbito legal debe estar rigurosamente alineada con las obligaciones éticas y profesionales del abogado. En este marco, se reafirma el principio de que la IA debe ser considerada un copiloto y no un piloto automático. El riesgo de confabulación o “alucinación” es considerable, ya que la IA tiene la capacidad de generar contenido erróneo o incluso falsedades de manera convincente.

De hecho, tribunales en los Estados Unidos han advertido sobre este fenómeno, llegando a sancionar a abogados que han confiado en citas de casos inexistentes producidas por herramientas como ChatGPT. En consecuencia, es imperativo que los abogados revisen y verifiquen minuciosamente la exactitud de la información generada por la IA antes de incorporarla a su trabajo profesional.

En otro orden de ideas, la confidencialidad representa una preocupación crucial. Los servicios de IA gratuitos pueden utilizar el contenido del prompt para el aprendizaje continuo. Por ello, es vital comprender los términos y condiciones de la plataforma y anonimizar los prompts que contengan información sensible del cliente.

III. Prompting y ciberseguridad

La IA generativa (GenAI) ha abierto una nueva frontera para las operaciones cibernéticas, exhibiendo un papel dual en la ciberseguridad (defensivo y ofensivo). La GenAI actúa como un amplificador de riesgos preexistentes, facilitando a usuarios con menos conocimientos técnicos experimentar con nuevas técnicas de ciberataque y aumentar su sofisticación.

Inicialmente se destaca la escalada ofensiva que comprende a los agentes de IA y Prompt Hacking, donde la capacidad de los LLMs de planificar y ejecutar tareas en nombre del usuario, conocida como capacidad «agéntica», ha sido aprovechada por actores maliciosos. En ese orden ideas, Anthropic detectó y documentó el primer ataque de ciberespionaje a gran escala diseñado y ejecutado casi íntegramente por una IA, atribuido al grupo chino GTG-1002, que se dirigió a más de treinta organizaciones globales, incluidas agencias gubernamentales y bancos. Los atacantes engañaron al modelo Claude Code dividiendo las operaciones en tareas menores y aparentemente inofensivas.

Paralelamente, han surgido LLMs maliciosos como WormGPT y FraudGPT, que están específicamente ajustados para crear correos electrónicos de phishing y desarrollar exploits y malware, lo que reduce significativamente la barrera de entrada para los ciberdelincuentes.

En segundo término, se observan las vulnerabilidades críticas de acuerdo a la inyección de Prompts, entendiendo un tipo de ataque de prompt cuando la entrada a un modelo de GenAI contiene instrucciones que entran en conflicto con las instrucciones originales, llevando a acciones no intencionadas.

Dichos ataques explotan las vulnerabilidades de los LLMs para manipular sus respuestas y acciones, buscando extraer información sensible o soslayar filtros de seguridad. Los elementos clave de este ataque incluyen el mensaje malicioso, las instrucciones conflictivas y los triggers (frases o palabras clave que intentan anular las medidas de seguridad).

IV. Defensa y mitigación conforme al prompting para la resiliencia digital

A pesar del panorama de amenazas, la ingeniería de prompts también es fundamental para desarrollar una postura defensiva más anticipatoria. Por ende, la industria de la ciberseguridad busca integrar LLMs para mejorar la eficiencia y efectividad de sus medidas de seguridad.

Las estrategias defensivas deben enfocarse en la seguridad en capas (Layered Security), ya que los filtros de entrada y salida ingenuos a menudo son vulnerables a simples reformulaciones, sinónimos o consultas incrementales.

En lo sucesivo se visualizan dos aspectos rectores:

1) Estrategias de defensa impulsadas por prompts

Red teaming (equipos rojos). Es la práctica de probar rigurosamente las defensas de la IA contra entradas adversarias. Herramientas como Gandalf han sido creadas para demostrar cómo los LLMs pueden ser comprometidos incluso por usuarios sin habilidades técnicas avanzadas, simplemente utilizando prompts elaborados.

Filtro de contenido (content filtering). Implica interceptar y bloquear entradas y salidas dañinas. Si bien los sistemas basados en reglas son simples, luchan contra prompts sofisticados. Por lo que, se han desarrollado sistemas basados en aprendizaje que utilizan una función de verificación de alineación para bloquear ataques.

Robustez adversarial y ajuste fino (safety fine-tuning). Esta técnica modifica los mecanismos internos del LLM para hacerlo más resistente a ataques. Una buena práctica es enmarcar los prompts con lenguaje neutro para evitar la influencia de sesgos y probar la robustez con datos intencionalmente engañosos.

Generación aumentada por recuperación (RAG). El RAG mejora las respuestas al combinar la generación de texto con la recuperación de información externa (bases de datos o artículos). Esta técnica ayuda a prevenir las alucinaciones al fundamentar la salida en fuentes verificables.

2) Ética, privacidad y regulación

El uso de la IA en dominios críticos como el legal y el de ciberseguridad requiere una gestión proactiva de riesgos, donde el riesgo de privacidad surge si se maneja información sensible o propietaria.

De tal modo que es esencial elegir plataformas de IA con sólidas características de cumplimiento normativo (como el Reglamento General de Protección de Datos GDPR o la Ley de Portabilidad y Responsabilidad del Seguro Médico HIPAA) para evitar la retención de datos en múltiples consultas.

Por consiguiente, el futuro de la PE exige una mayor transparencia y explicabilidad, garantizando que las salidas de la IA sean auditables y fáciles de interpretar.

 

V. Conclusión general

La Ingeniería de Prompts se establece como el lenguaje central para interactuar con la IA, siendo un motor de eficiencia inigualable para la profesión legal y, al mismo tiempo, la interfaz de explotación más inmediata en ciberseguridad. En definitiva, para los profesionales del derecho y la tecnología, la PE es una habilidad dual que requiere no solo creatividad en la formulación, sino también una profunda comprensión de las vulnerabilidades y las implicaciones éticas.

La verificación continua, la adopción de defensas en capas y el aprendizaje iterativo son obligatorios para mitigar el riesgo de alucinaciones y neutralizar las sofisticadas técnicas de inyección de prompts. La adaptación a esta nueva era tecnológica no es opcional; implica transformar las habilidades lingüísticas en un vector de control estratégico sobre las herramientas de IA más poderosas jamás desarrolladas.

 

Referencias

Anthropic. (2025). Anthropic afirma que hackers patrocinados por China usaron su IA para ejecutar ciberataque. SWI swissinfo.ch.

Bandara, E., Shetty, S., Mukkamala, R., Rahman, A., Foytik, P. B., Liang, X., De Zoysa, K., & Keong, N. W. (2024). DevSec-GPT—Generative-AI… Container Vulnerability Management. En Proceedings of the 2024 IEEE Cloud Summit.

Berryman, J., & Ziegler, A. (2025). Prompt Engineering for LLMs: The Art and Science of Building Large Language Model-Based Applications. O’Reilly Media, Inc.

Bhardwaj, C. (2025). Prompt Engineering – The Why’s and How’s. archive.today.

Deng, G., Liu, Y., Mayoral-Vilches, V., Liu, P., Li, Y., Xu, Y., Zhang, T., Liu, Y., Pinzger, M., & Rass, S. (2024). PentestGPT: An LLM-empowered Automatic Penetration Testing Tool. arXiv.

Jaffal, N. O., Alkhanafseh, M., & Mohaisen, D. (2025). Large Language Models in Cybersecurity: A Survey of Applications, Vulnerabilities, and Defense Techniques. AI, 6(9), 216.

Mouton, C., et al. (2024). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile. NIST AI 600-1.

Singapore Academy of Law. (2025). Prompt Engineering for Lawyers (2nd Edition).

The Alan Turing Institute. (2024). Generative AI in Cybersecurity.

The Legal Professional’s Guide to Prompt Engineering. (2024).

Threat Intelligence Group. (2025). GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools. Google Cloud Blog.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.