Cuatro formas de poner límites a la IA
Diario de Innovación #282
Todas las grandes IAs tienen límites.
La diferencia está en cómo se definen, quién los fija y desde dónde se justifican.
Ayer hablábamos de la Constitución de Claude publicada hace unos días por Anthropic.
Y es que comparar a Anthropic, OpenAI, Google y la Unión Europea no es comparar modelos.
Es comparar filosofías de poder.
Hoy vamos a profundizar en cómo cada uno de estos players de la industria de la IA, entiendan la ética y la seguridad de esta industria.
Anthropic: la IA con constitución
Anthropic propone algo poco habitual: una constitución explícita que guía el razonamiento ético del modelo.
No se centra en reglas exhaustivas, sino en:
jerarquía clara de valores
juicio contextual
límites duros no negociables
utilidad sin sumisión al usuario
Claude no “cumple normas”.
Razona desde principios.
Es el enfoque más cercano a formar carácter en una IA.
OpenAI: seguridad pragmática y aprendizaje iterativo
OpenAI ha optado por un enfoque distinto:
políticas de uso detalladas
sistemas de refuerzo con feedback humano
ajustes continuos según uso real y riesgos emergentes
Aquí no hay una “constitución” formal.
Hay normas, excepciones y evolución constante.
Funciona bien a escala, pero deja una pregunta abierta:
¿qué principios gobiernan cuando las reglas no alcanzan?
Es un modelo operativo, no filosófico.
Google: principios amplios y gestión del riesgo
Google lleva años publicando principios de IA:
no causar daño
evitar usos peligrosos
responsabilidad y supervisión humana
Su enfoque es:
corporativo
preventivo
orientado a reputación y cumplimiento
Menos foco en el razonamiento interno del modelo,
más foco en qué se despliega y qué no.
Es una ética de producto, no de agente.
La Unión Europea: derechos antes que capacidades
La UE juega otra partida.
El AI Act no define valores internos de la IA.
Define:
categorías de riesgo
obligaciones legales
sanciones
Aquí la IA no necesita “buen juicio”.
Necesita cumplir la ley.
Es el enfoque más claro en protección ciudadana,
pero también el menos adaptable a escenarios nuevos o grises.
Es ética externalizada al regulador.
Cuatro enfoques, una misma tensión
La pregunta clave no es cuál es “mejor”.
Es otra:
👉 ¿Dónde queremos que resida el control cuando la IA sea más autónoma?
En su razonamiento interno.
En reglas externas.
En empresas.
O en el Estado.
Food for thought
La constitución de Claude es la más explícita, pero también la más honesta en algo incómodo: cuando una IA tenga poder real, alguien tendrá que decidir qué considera justificable.
Y no decidirlo, también es una decisión.
Por que lo que no cambias, es lo que estás eligiendo.
🌍 El eco del mercado
💬 OpenAI empieza a poner precio a la atención en ChatGPT. La compañía explora un modelo publicitario premium dentro de ChatGPT. No es solo monetización: es el reconocimiento explícito de que la interfaz conversacional ya compite con buscadores y redes como espacio publicitario.
🧠 Microsoft presenta Maia 200, su nuevo chip de inferencia para IA. El movimiento apunta a reducir dependencia de Nvidia y a controlar costes de inferencia a gran escala. La guerra del silicio ya no va solo de potencia, sino de eficiencia y soberanía tecnológica.
☁️ Cloudflare advierte de un “techo técnico” que frena la adopción real de la IA. Más modelos no solucionan infraestructuras obsoletas. El mensaje es claro: sin modernización del stack, la IA se queda atrapada en pilotos eternos.
🐑 Yann LeCun alerta del riesgo de pensamiento de rebaño en la IA. Uno de los padres del deep learning cuestiona la dirección dominante del sector. No es una crítica técnica, sino cultural: demasiada convergencia, poca diversidad de enfoques.
🧩 Extensiones maliciosas de IA en VS Code comprometen a más de 1,5 millones de usuarios. El open ecosystem se convierte en superficie de ataque. La cadena de suministro software es ahora uno de los vectores más frágiles de la era IA.
🧪 TSMC y Microsoft entrenan modelos con datos sintéticos y chips Nvidia. La combinación de datos sintéticos + hardware avanzado redefine cómo se entrena IA a escala, con implicaciones directas para China, academia y regulación.
🧧 Tencent y Baidu convierten el Año Nuevo chino en escaparate de IA y robótica. La tecnología se integra en rituales culturales. En China, la adopción no se explica solo por eficiencia, sino por normalización social acelerada.
🎣 La IA impulsa una nueva generación de ataques de phishing indetectables. Los LLMs permiten ataques dinámicos, personalizados y sin payloads clásicos. La ciberseguridad entra en una carrera asimétrica.
⚡ Rusia, detrás de un intento de apagón eléctrico en Polonia. El ciberataque a infraestructuras críticas confirma que la frontera entre guerra digital y física ya no existe.
🎥 China acelera en vídeo IA para competir con Sora y Veo. Kling no es solo una demo: es señal de que el liderazgo en modelos generativos será multipolar, no occidental.
🖥️ NVIDIA invierte 2.000 millones en CoreWeave para asegurar cómputo. Controlar capacidad es controlar el mercado. El compute se consolida como el verdadero cuello de botella de la IA.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
Para seguir profundizando en este tema:
PD1: Power and Prediction (2022). No es un libro “de ética” en sentido clásico, y justo por eso es interesante. Explica cómo la IA desplaza el poder de decidir qué hacer cuando predecir deja de ser caro. Ideal para entender por qué los límites importan más que la precisión.
PD2. El Algoritmo Ético (2020). Muy poco citado fuera del mundo académico. Aborda cómo diseñar algoritmos que respeten privacidad, equidad y estabilidad desde el código, no desde el compliance posterior. Mucho Anthropic vibes, pero con matemáticas detrás.
PD3. Human-Centered AI (2022). Una alternativa tranquila al alarmismo. Shneiderman propone sistemas con límites claros, supervisión humana real y responsabilidad trazable. Más cercano al enfoque europeo, pero pensado para ingenieros y diseñadores de producto.
PD4. Rethinking Intelligence (2021). Menos conocido y muy pertinente: cuestiona qué entendemos por “inteligencia” antes de decidir cómo gobernarla. Buen antídoto contra diseñar constituciones o regulaciones sobre conceptos mal definidos.
PD5. Responsible AI (2019). Probablemente uno de los libros más serios sobre gobernanza de IA. No es inspiracional, es estructural: roles, procesos, trade-offs y límites reales en sistemas socio-técnicos.
PD6. Algorithmic Regulation (2023). Muy reciente y muy poco difundido. Analiza qué pasa cuando el Estado usa algoritmos para regular… y por qué regular algoritmos con más algoritmos no resuelve el problema de fondo.


