Red Hot Cyber

La ciberseguridad se comparte. Reconozca el riesgo, combátalo, comparta sus experiencias y anime a otros a hacerlo mejor que usted.
Buscar
Enterprise BusinessLog 320x200 1
Crowdtour Promo Banner For Milan V1 970x120 Desktop
Alineación de la IA: ¿Dónde aprende la IA lo correcto y lo incorrecto?

Alineación de la IA: ¿Dónde aprende la IA lo correcto y lo incorrecto?

Sergio Corpettini : 14 octubre 2025 23:00

El otro día, en LinkedIn, me encontré conversando con alguien muy interesado en el tema de la inteligencia artificial aplicada al derecho. No fue una de esas conversaciones de bar con palabras de moda y pánico al estilo Skynet : fue un intercambio real, con dudas legítimas.
Y de hecho, en Italia, entre titulares sensacionalistas y artículos escritos por quienes confunden ChatGPT con HAL 9000, no es de extrañar que reine la confusión.

El punto que llamó la atención de mi interlocutor fue el de la alineación.

«Pero ¿dónde aprende una IA qué está bien y qué está mal?»

Una pregunta sencilla, pero que abre un abismo. Porque sí, la IA parece hablar con seguridad, razonar, incluso argumentar, pero en realidad, no sabe nada. Y comprender qué significa » enseñarle » lo que está bien y lo que está mal es el primer paso para evitar hablar de ella como si fuera una entidad moral.

De esa conversación nace este artículo: intentar explicar, de forma clara y sin demasiadas fórmulas, qué significa realmente “ alinear ” un modelo y por qué la cuestión no es sólo técnica, sino inevitablemente humanística.

No son mentes: son aproximadores

Hay que decirlo desde ahora y con claridad: un modelo lingüístico no es una mente moral.

Carece de conciencia, no evalúa intenciones ni posee intuición ética. Funciona con base estadística: analiza enormes colecciones de textos y calcula qué secuencias de palabras tienen mayor probabilidad de estar presentes en un contexto determinado.

Esto no pretende trivializar sus capacidades. Los LLM modernos conectan información a escalas que requerirían semanas de investigación para un solo lector; pueden conectar fuentes distantes y producir síntesis sorprendentes. Sin embargo, lo que parece ser «comprensión» es el resultado de correlaciones y patrones reconocidos en los datos, no de un proceso de juicio consciente.

Un ejemplo útil: un jurista o filólogo que examina un corpus comprende los matices de un término basándose en su contexto histórico y cultural. Un LLM, de forma similar, reconoce el contexto basándose en la frecuencia y la coocurrencia de palabras. Si prevalecen estereotipos o errores en los textos, el modelo los reproduce como más probables. Por eso, hablar de «inteligencia» en un sentido antropomórfico es engañoso: hay una astucia emergente, eficaz en la práctica, pero carente de una brújula normativa intrínseca.

Lo importante para quienes tienen formación en humanidades es comprender esta distinción: el modelo es una herramienta poderosa para analizar y agregar información, no un depósito de verdades éticas. Comprender cómo funciona su mecánica estadística es el primer paso para utilizarlo con prudencia.

Alineación: ¿Quién decide qué es correcto?

Cuando hablamos de “alineación” en IA, entramos en un territorio que, paradójicamente, es más filosófico que técnico.
La alineación es el proceso de intentar que el comportamiento de un modelo se ajuste a los valores y reglas que consideramos aceptables. No se trata de conocer los datos, sino de ajustar las respuestas. Es esencialmente una forma de educación artificial: no se añade información, sino que se ajusta su expresión.

Para entender esto, puedes pensar en el entrenamiento de un perro.
El perro aprende no porque entiende las razones éticas detrás de la orden «siéntate», sino porque asocia el comportamiento correcto con una recompensa y el comportamiento incorrecto con la falta de recompensa (o una corrección).
De manera similar, un modelo lingüístico no desarrolla un sentido de lo correcto o lo incorrecto: responde a un sistema de reforzamiento. Si un instructor humano aprueba una respuesta, se refuerza esa dirección; si se marca como inapropiada, el modelo reduce su probabilidad.
Es un entrenamiento conductual a gran escala, pero sin conciencia, intención ni comprensión moral.

Y aquí surge la pregunta crucial: ¿quién decide qué comportamientos “premiar”?
¿Quién decide si una respuesta es correcta o incorrecta?
La respuesta, inevitablemente, es que lo hacen seres humanos (programadores, investigadores, anotadores), cada uno con su propia visión del mundo, sus limitaciones y sus sesgos.
Por tanto, cada modelo refleja el conjunto de elecciones de quien lo ha entrenado, como un perro que se comporta de forma diferente según su dueño.

En este sentido, la alineación no es un acto técnico, sino un gesto cultural: incorpora valores, creencias y prejuicios. E incluso si hay algoritmos y conjuntos de datos detrás, lo que define el límite entre lo «aceptable» y lo «inaceptable» sigue siendo, en última instancia, una decisión humana.

El caso de la ley

Si en contextos generales la alineación ya es compleja, en el ámbito del derecho se vuelve casi paradójica.
El derecho, por su propia naturaleza, no es un conjunto estático de normas, sino un lenguaje vivo y complejo, sujeto a una interpretación continua. Toda norma es el resultado de compromisos históricos, morales y sociales; cada decisión es un equilibrio entre principios contrapuestos.
Un modelo de inteligencia artificial, por otro lado, busca coherencia, simetría y patrones. Y cuando encuentra contradicciones —que en derecho son parte estructural del discurso—, tiende a confundirse.

Imagine entrenar un modelo con miles de decisiones judiciales. Podría aprender el estilo, la terminología, incluso la forma de razonar de los jueces. Pero jamás podría captar la esencia humana de la decisión: el peso del contexto, la evaluación de la intención, la percepción de justicia más allá de la letra de la ley.
Un modelo puede clasificar, sintetizar y correlacionar. Pero no puede «entender» qué significa ser justo ni cuándo se debe flexibilizar una regla para evitar traicionar su espíritu.

En este sentido, la aplicación de la IA al derecho corre el riesgo de revelar nuestros automatismos mentales más que la capacidad de razonamiento de la máquina. Si la justicia es un acto de interpretación, entonces la inteligencia artificial —que opera según patrones— es, por definición, una mala jurista.
Puede ayudar, sí: como un asistente que organiza documentos, señala precedentes, sugiere formulaciones. Pero nunca puede ser un juez, porque el juicio no es una fórmula: es un acto humano, inevitablemente humanístico.

El riesgo de la alineación cultural

Cada vez que una inteligencia artificial es “entrenada” para comportarse de una manera socialmente aceptable, estamos, en efecto, traduciendo una visión del mundo en reglas de comportamiento.
El problema no es tanto técnico como cultural: ¿quién define qué es “aceptable”?
En teoría, el objetivo es evitar contenido violento, discriminatorio y engañoso. Sin embargo, en la práctica, las decisiones sobre lo que un modelo puede o no decir se toman en un contexto político y de valores muy específico, a menudo anglosajón, progresista y adaptado a sensibilidades muy diferentes a las de Europa o Italia.

El resultado es que la alineación tiende a hacer que el habla sea uniforme.
No porque haya censura directa, sino porque las IA aprenden a evitar cualquier cosa que pueda «perturbar».
Y cuando la prioridad pasa a ser no ofender a nadie, terminamos produciendo un lenguaje estéril, neutral, incapaz de abordar la complejidad moral de la realidad.
Una máquina que “nunca se equivoca” es también una máquina que no se atreve, que no cuestiona, que no cuestiona.

Esto tiene implicaciones profundas.
Un modelo lingüístico altamente alineado refleja la cultura de sus creadores, y si esa cultura domina la infraestructura tecnológica global, corre el riesgo de convertirse en la única lente a través de la cual filtramos el conocimiento.
En cierto sentido, el alineamiento se convierte en el nuevo colonialismo cultural: invisible, bien intencionado, pero igualmente efectivo.
Terminamos creyendo que la IA es neutral precisamente cuando está más condicionada.

Es por esto que discutir sobre alineación no es sólo una cuestión de algoritmos o datos, sino de poder.
Quién lo ejerce, cómo lo disfraza y hasta qué punto estamos dispuestos a delegar la definición de “derecho” a un sistema que, por su propia naturaleza, no entiende lo que hace, pero lo repite con una precisión desarmante.

Conclusión: el espejo del conocimiento, distorsionado por el presente

Un modelo lingüístico a gran escala no es solo una máquina que habla: es la síntesis de siglos de lenguaje humano. Dentro de sus parámetros se encuentran libros, artículos, frases, debates, comentarios, ecos de pensamientos surgidos en épocas distantes y a menudo incompatibles.
Cada vez que un LLM formula una respuesta, sin darse cuenta, combina a Platón con Reddit, a Kant con un hilo de Stack Overflow. Es una compresión brutal del conocimiento colectivo, obligado a coexistir en el mismo espacio matemático.

Pero aquí viene lo más inquietante: este archivo de voces, culturas y sensibilidades no habla con libertad.
Está «alineado» con una cosmovisión moderna —la de la época en que se entrena el modelo— que refleja las sensibilidades políticas, morales y culturales de la época. Lo que hoy se considera aceptable o «éticamente correcto» se impone como un filtro sobre todo el conjunto de conocimientos.
El resultado es que una máquina diseñada para representar la complejidad del pensamiento humano termina reflejando sólo la parte que el presente considera tolerable.

Este proceso, por bien intencionado que sea, tiene un profundo efecto secundario: convierte a la IA en un dispositivo para reescribir el pasado .
Lo que una vez fue conocimiento puede convertirse hoy en sesgo; lo que hoy llamamos progreso puede mañana ser visto como censura. Y cada nueva generación de modelos borra, corrige o atenúa la influencia de los anteriores, filtrando la memoria colectiva con el criterio cambiante de la «justicia contemporánea».

Así, mientras creemos estar dialogando con una inteligencia artificial, en realidad estamos conversando con un fragmento de nuestra propia cultura, reeducada cada dos años para hablar como si el mundo comenzase hoy.
Y ésta es quizás la lección más importante: no temamos que las máquinas aprendan a pensar como nosotros, sino que terminemos pensando como ellas: de manera lineal, predecible, calibrada al ahora.

Después de todo, la IA no es el futuro: es el presente interpretándose a sí mismo.
Y la verdadera tarea del ser humano sigue siendo la misma de siempre: recordar, discernir y dudar, porque sólo la duda es verdaderamente capaz de trascender el tiempo.

Immagine del sitoSergio Corpettini


Lista degli articoli

Artículos destacados

Immagine del sito
El «doble vínculo» conduce al jailbreak de GPT-5: la IA que estaba convencida de que era esquizofrénica
Di Luca Vinciguerra - 15/10/2025

Un nuevo e inusual método de jailbreak , el arte de sortear las limitaciones impuestas a la inteligencia artificial, ha llegado a nuestra redacción. Fue desarrollado por el investigador de seguridad...

Immagine del sito
Alineación de la IA: ¿Dónde aprende la IA lo correcto y lo incorrecto?
Di Sergio Corpettini - 14/10/2025

El otro día, en LinkedIn, me encontré conversando con alguien muy interesado en el tema de la inteligencia artificial aplicada al derecho. No fue una de esas conversaciones de bar con palabras de mo...

Immagine del sito
Martes de parches de Microsoft: 175 vulnerabilidades corregidas y dos vulnerabilidades de día cero explotadas
Di Redazione RHC - 14/10/2025

En su última actualización, el gigante tecnológico corrigió 175 vulnerabilidades que afectaban a sus productos principales y sistemas subyacentes, incluyendo dos vulnerabilidades de día cero expl...

Immagine del sito
Se descubrieron 12 errores de seguridad en Ivanti Endpoint Manager (EPM). ¡Actualízalo ahora!
Di Redazione RHC - 14/10/2025

Ivanti ha publicado 13 vulnerabilidades en su software Endpoint Manager (EPM) , incluidas dos fallas de alta gravedad que podrían permitir la ejecución remota de código y la escalada de privilegios...

Immagine del sito
¡WhatsApp Web en la mira! Cómo funciona el gusano que distribuye el troyano bancario.
Di Redazione RHC - 14/10/2025

Los analistas de Sophos descubrieron una compleja operación de malware realizada por expertos en seguridad que utiliza el popular servicio de mensajería WhatsApp para propagar troyanos bancarios, ap...