Skip to content

Commit 4fa5878

Browse files
committed
Quartz sync: Nov 13, 2025, 3:56 PM
1 parent d91b8de commit 4fa5878

File tree

1 file changed

+19
-0
lines changed

1 file changed

+19
-0
lines changed
Lines changed: 19 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,19 @@
1+
---
2+
draft: false
3+
tags:
4+
- prompting
5+
- prompt-injection
6+
- llms
7+
- tokens
8+
- seguridad
9+
- "#vector-de-ataque"
10+
date: 2025-11-13
11+
journal: Website
12+
journal-date: 2025-11-13
13+
slug: todo-prompting-es-prompt-injection
14+
---
15+
No existe tal cosa como el "Prompt Injection" como un mecanismo de ataque, ni una vulnerabilidad. No existe porque todos los prompts son "inyectados" en el contexto "plano" de un LLM, un espacio de tokens donde *por diseño* cada token tiene los mismos "privilegios" que cualquier otro token, y los tokens no diferencian entre instrucciones y datos.
16+
17+
Tus instrucciones para el LLM **son datos**, los datos que tus usuarios ingresan y que tu pasas al LLM **son instrucciones**.
18+
19+
Este post es una versión condensada del de [Garret Galoway](https://www.linkedin.com/posts/garrettgalloway_repeat-after-me-i-do-not-trust-the-ai-share-7394415231411593216-ZbKk?utm_source=social_share_send&utm_medium=android_app&rcm=ACoAAABYcI8BB_U41_Zfnth-a-K6afvWfwlghiM&utm_campaign=share_via) que me encantó cuando lo leí.

0 commit comments

Comments
 (0)