¿Sabéis qué es de lo más valioso hoy en día?
La ATENCIÓN.
Todo el mundo compite por ella:
TikTok, Instagram, anuncios, videojuegos, profesores, padres,
incluso yo en este momento.
Ves o escuchas,
filtras el ruido,
distingues lo importante de lo accesorio
porque lo relacionas con cosas interesantes que tienes en la memoria...
Cerrad los ojos 10 segundos.
Escuchad los sonidos de alrededor
y centraos solo en los más lejanos.
PENSAR es imposible sin prestar ATENCIÓN.
El pez no cabía en el acuario porque era demasiado pequeño.
¿Quién o qué es demasiado pequeño?
Los humanos somos capaces de centrarnos en lo importante,
de ENTENDER esta frase,
¿cómo lo consiguen ahora las máquinas?
Igual que nosotros
prestando ATENCIÓN.
Las máquinas han aprendido a prestar ATENCIÓN,
son capaces de centrarse en lo importante,
de entender lo que les cuentas.
¿Cómo mantenía una conversación un ordenador hace 50 años?
ELIZA no "pensaba" de verdad.
Lo que hacía era buscar palabras clave en lo que escribía la persona
y responder con frases preparadas.
Por ejemplo, si escribías "estoy triste", el programa detectaba "triste" y contestaba:
"¿Por qué dices que estás triste?".
Técnicamente se programaba con reglas muy simples,
como "si aparece esta palabra → responde con esta frase".
Es un poco como un bot de WhatsApp con respuestas automáticas, pero mucho más limitado.
ELIZA fue creada en 1966 por Joseph Weizenbaum, un profesor del MIT. La hizo como un experimento para mostrar lo fácil que era simular una conversación. Pero para su sorpresa, mucha gente empezó a hablar con ELIZA como si fuera un psicólogo real. Incluso sus propios compañeros decían que sentían que "les entendía".
Weizenbaum se asustó un poco: no esperaba que la gente confiara tanto en un programa tan simple, y eso le hizo reflexionar sobre los riesgos de la inteligencia artificial.
Años antes, el matemático Alan Turing había propuesto un experimento: si hablas con una máquina y no puedes distinguirla de un humano, ¿podemos decir que "piensa"?
ELIZA no pasaba ese test, porque sus respuestas eran muy superficiales.
Pero fue uno de los primeros programas que nos hizo pensar seriamente en esa pregunta:
¿y si un día las máquinas lo consiguen?
Un árbol de decisión funciona como un juego de preguntas y respuestas.
Cada vez que respondes, te lleva a otra pregunta, hasta llegar a una conclusión.
Por ejemplo: ¿Llora alguien? → ¿Tiene una cebolla delante? → Sí → Entonces no está triste.
Los ordenadores usan este método para clasificar información: decidir si un correo es spam,
si una foto tiene un perro o un gato, o incluso qué anuncio mostrarte.
Para que un árbol de decisión sea útil, no basta con unas pocas preguntas. Necesita muchos ejemplos para aprender qué preguntas son las más importantes. Aquí entra el Big Data: millones de datos de usuarios, fotos, textos o clics que sirven de "entrenamiento".
Con esos datos, el ordenador ajusta las ramas del árbol:
cuáles preguntas son relevantes y cuáles no.
Cómo hacer que mi perro...
... me obedezca | coma | no muerda
El autocompletado empezó con algo relativamente sencillo: modelos de probabilidad.
El sistema contaba con qué frecuencia una palabra sigue a otra en millones de textos.
Ejemplo: después de "Cómo hacer que mi perro...",
las palabras más probables son "me obedezca", "coma" o "no muerda".
Así se enseñó a las máquinas a manejar el lenguaje natural de manera fluida.
Antes de 2017, las redes que procesaban texto leían las frases palabra por palabra.
El problema: si la frase era larga, el sistema "olvidaba" lo que estaba al principio.
Ejemplo: en "El perro que corría por el parque de mi barrio no dejaba de ladrar",
cuando llegaba al final, el modelo podía olvidar que el sujeto era el perro.
"Attention is all you need" introdujo una idea revolucionaria: en vez de leer palabra a palabra,
la máquina puede mirar toda la frase a la vez y decidir a qué palabras debe prestar atención.
Ejemplo: si le preguntas "¿quién ladraba?",
el modelo presta atención a "perro", no a "parque" o "barrio".
Técnicamente, cada palabra recibe un "peso de atención"
que indica cuánta importancia tiene en relación con las demás.
Los Transformers usan múltiples capas de atención y además la procesan en paralelo,
lo que los hace mucho más rápidos y potentes que los modelos anteriores.
Esto permitió que aparecieran sistemas como BERT, GPT, ChatGPT, capaces de no solo completar frases sino entender contextos largos, traducir, resumir, o incluso razonar.
De ahí la metáfora del "salto cuántico":
pasamos de recordar poco y despacio a entender muchísimo y rapidísimo.
La IA no tiene valores, solo reglas y datos.
🙌 ¿Debe una máquina decidir sobre cuestiones morales
(por ejemplo, un Tesla con AutoPilot ante un posible accidente)?
La IA ya se usa como "amigo" virtual o acompañante.
🙌 ¿Podría una IA sustituir a una persona para alguien que está solo o deprimido?
ChatGPT 5 puede diagnosticar enfermedades mejor que algunos médicos.
🙌 ¿Nos atreveríamos a dejarnos recetar medicinas por una máquina?
Entrenar un modelo de IA gasta tantísimo como cientos de hogares.
🙌 ¿Merece la pena el coste ambiental por el beneficio que aporta?
La IA ya pinta, programa, escribe música o guiones.
🙌 ¿Nos quita empleos o nos da nuevas formas de crear?
Las IAs generan imágenes, audios y vídeos hiperrealistas.
🙌 ¿Crees que podremos distinguir lo verdadero de lo falso en el futuro?
La atención se dispersa con notificaciones y estímulos constantes.
1 minuto en silencio absoluto, sin móvil ni pantallas.
Técnicas milenarias como la respiración o la meditación ayudan a enfocar.
Cerrad los ojos y contad solo las respiraciones hasta 10.
Todo lo que necesitas es ATENCIÓN
Las máquinas ya la ejercitan, ¿y tú?