Skip to content
Tendencia
marzo 13, 2026‘Torrente presidente’, Santiago Segura intenta resucitar la sátira política española con más ganas que aciertos marzo 13, 2026Jaime Lizana, plata en la World Cup de Italia marzo 13, 2026Los sindicatos se oponen a la conversión del INAEM en una empresa pública marzo 13, 2026Los socios de Unionistas ya pueden elegir entre 155 equipaciones marzo 13, 2026La final de la Copa de la Reina cambia de horario marzo 13, 2026Lista completa de todos los nominados a los Premios Oscar 2026 marzo 13, 2026Los países de la UE acuerdan prohibir los modelos de IA que permitan los ‘deepfakes’ sexuales marzo 13, 2026Cuba confirma «conversaciones» con EEUU tras la asfixia de Trump: «Hace tres meses que no entra un barco» marzo 13, 2026RTVE recupera uno de sus clásicos más icónicos, Los desayunos, que arrancarán con María Jesús Montero marzo 13, 2026La jefa de Exteriores de la UE acusa a Estados Unidos de querer debilitar y «dividir a Europa»
  viernes 13 marzo 2026
  • Entradas
  • Sobre Nosotros
  • Contacto
VozdelMomento -  La actualidad al instante. Noticias nacionales e internacionales.
  • Portada
  • Nacional
  • Internacional
  • Entretenimiento
  • Tecnología
  • Deportes
  • Sociedad
  • Cultura
  • Economía
VozdelMomento -  La actualidad al instante. Noticias nacionales e internacionales.
VozdelMomento -  La actualidad al instante. Noticias nacionales e internacionales.
  • Portada
  • Nacional
  • Internacional
  • Entretenimiento
  • Tecnología
  • Deportes
  • Sociedad
  • Cultura
  • Economía
  • Entradas
  • Sobre Nosotros
  • Contacto
VozdelMomento -  La actualidad al instante. Noticias nacionales e internacionales.
  Tecnología  Maximilian Kasy, economista: “La IA no es un dios que hayamos creado al que ahora debamos someternos”
Tecnología

Maximilian Kasy, economista: “La IA no es un dios que hayamos creado al que ahora debamos someternos”

marzo 13, 2026
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

Maximilian Kasy, catedrático en Oxford y autor de 'The Means of Prediction: How AI Really Works (and Who Benefits)'.

Para Maximilian Kasy (Viena, 43 años), la pregunta verdaderamente importante, y aterradora, sobre inteligencia artificial es: ¿quién la controla? Catedrático de Economía en la Universidad de Oxford, este matemático y experto en técnicas de aprendizaje automático acaba de publicar The Means of Prediction: How AI Really Works and Who Benefits (Los medios de predicción: cómo funciona realmente la IA y quién se beneficia), editado por la Universidad de Chicago, un libro en el que sostiene que los conflictos fundamentales de la IA no surgen de la lucha entre humanos y máquinas, sino entre los que controlan esta tecnología y todos los demás.

Seguir leyendo

 El experto expone en su último libro cómo los dilemas de la inteligencia artificial responden más a los intereses de sus propietarios que a su propia potencia técnica  

Para Maximilian Kasy (Viena, 43 años), la pregunta verdaderamente importante, y aterradora, sobre inteligencia artificial es: ¿quién la controla? Catedrático de Economía en la Universidad de Oxford, este matemático y experto en técnicas de aprendizaje automático acaba de publicar The Means of Prediction: How AI Really Works and Who Benefits (Los medios de predicción: cómo funciona realmente la IA y quién se beneficia), editado por la Universidad de Chicago, un libro en el que sostiene que los conflictos fundamentales de la IA no surgen de la lucha entre humanos y máquinas, sino entre los que controlan esta tecnología y todos los demás.

Kasy desmenuza los recursos fundamentales que la alimentan y que, parafraseando a Karl Marx, llama “medios de predicción”. Son cuatro: datos, potencia computacional, mano de obra y energía. Quien los controla, como si fueran los anillos de Sauron, controlará la tecnología. De este modo, la despoja de su aura de fuerza imparable y omnipotente, y la sitúa en su justa dimensión: una tecnología moldeada por decisiones humanas, cuyo futuro no está determinado por su extraordinario poder, sino por los intereses de los propietarios que la controlan.

Pregunta. Los mercados llevan varias semanas muy volátiles: bajan las empresas de software, hay una cierta sensación de euforia en torno a Anthropic, a la vez que se habla de una burbuja de la IA… ¿Qué está pasando?

Respuesta. Uno de los argumentos del libro es que ni los pesimistas (doomers) ni los entusiastas (boosters) tienen razón. No es que todo vaya a ser un desastre y que la IA vaya a acabar con todos nosotros, ni lo contrario. Depende en gran medida de lo que hagamos con esta tecnología muy versátil y que, en última instancia, apunta a la optimización de algo. La pregunta clave es qué estamos optimizando y quién decide qué se optimiza. El futuro está abierto.

¿Es una burbuja? Se ha trabajado mucho en las llamadas “leyes de escala”, la idea de que el rendimiento del aprendizaje automático mejora cuando dispone de más datos, mayor capacidad de cálculo, modelos más grandes… Así comenzó el reciente auge de la IA y ha funcionado muy bien durante unos cinco años, pero está claro que ha llegado a un límite. No tiene sentido hacer modelos más grandes si los datos de entrenamiento no aumentan, pero siguen ampliando la capacidad de cálculo. El año pasado invirtieron alrededor de 350.000 millones de euros en centros de datos, lo mismo que este año, pero es poco probable que vayan a mejorar. No es que no vayan a surgir nuevos paradigmas, usos y formas de integrarlos en la economía, pero no creo que su calidad fundamental mejore a menos que hagamos algo diferente.

P. Las expertas Emily Bender, de la Universidad de Washington, y Alex Hanna, del Instituto DAIR, han publicado La estafa de la IA, un libro que, en cierto modo, dialoga con el suyo. Arrancan: “Seremos sinceros: La IA es una trampa, una estafa, un engaño diseñado para llenar los bolsillos de ciertas personas”. ¿Qué opina?

R. Debemos crear instituciones en las que los afectados por estas tecnologías tengan voz sobre lo que se diseña para optimizar. Sin duda, estoy de acuerdo en que no debemos creer el bombo publicitario de los departamentos de marketing, pero eso no significa que toda la tecnología sea una estafa. Lo que se ha logrado es bastante sorprendente. El discurso más negativo, que dice que la IA va a matarnos o a automatizarnos a todos, utiliza casi los mismos argumentos que los responsables de marketing, pero con un ligero cambio. Esta idea de que existe una noción unidimensional de la inteligencia y que, una vez que las máquinas alcancen la capacidad humana, se perfeccionarán por sí mismas y perderemos el control es casi lo mismo que las historias de los boosters, con el pequeño matiz de que, con una diferencia en los objetivos, podría matarnos a todos. Ambas suposiciones son erróneas. Se trata de tecnologías bastante antiguas. Lo que ha cambiado en los últimos 20 años es solo la escala, ampliada a un nivel gigantesco con los datos de internet y los enormes centros de datos. Esto ha traído avances impresionantes, pero no es como si hubiéramos creado un dios al que ahora tenemos que someternos.

Mas noticias

Las armas autónomas con IA enfrentan a las tecnológicas con Trump

febrero 27, 2026

Samsung apuesta por multiplicar el hardware en la era de la IA

marzo 5, 2026

Menús, recordatorios, emails y otras tareas cotidianas que puedes automatizar ya gracias a la IA

marzo 10, 2026

Guía para acompañar a los hijos en el uso de pantallas: de un contrato familiar a desconectar una hora antes de dormir

marzo 10, 2026

P. En 2017, Google consiguió optimizar los algoritmos de aprendizaje automático de forma que podían hacer cosas para las que no estaban directamente optimizados, “liberándose” de alguna forma de esta misión. ¿No es demasiado tarde para controlarlos?

R. Crearon una nueva arquitectura para el modelado del lenguaje, la llamada “arquitectura transformadora”. Esto resultó ser muy útil en la práctica, pero conceptualmente no cambió en absoluto el problema de optimización, que seguía siendo maximizar la probabilidad de predecir correctamente la siguiente palabra en internet, un problema de predicción clásico.

P. Dice que la IA se ha vuelto tan omnipresente que ha creado una cierta sensación de resignación pública…

R. Sin duda, la IA se puede controlar. Hay que dar varios pasos. El primero es desmitificarla. La conversación se vuelve muy confusa cuando hablamos de inteligencia, conciencia, inteligencia general, superinteligencia… Pero es mucho más mundana si se examina como los libros académicos: optimización. Hay unos objetivos medibles, el tipo de recompensa o pérdida que se está maximizando: cuántos ingresos obtienes por la venta de anuncios en línea; cuánta gente permanece en tu web; aplicaciones más insidiosas, como cuántas personas se deportan (el ICE en Estados Unidos utiliza algoritmos para enviar patrullas y decidir a quién encarcelar). Lo importante es que se está optimizando sobre acciones elegidas por alguien para maximizar un objetivo numérico elegido por alguien. No es una fuerza sobrenatural inescrutable. La pregunta definitiva es: ¿cómo construimos instituciones en las que las personas afectadas por algún sistema de IA tengan un control vinculante sobre sus objetivos? Esto requiere legislación en materia de privacidad, del mercado y la competencia, normas técnicas, pero también la creación de instituciones democráticas.

P. ¿Por ejemplo?

R. Una forma que me gusta son los sorteos. La idea es que, entre las partes interesadas —por ejemplo, los usuarios de una plataforma— se seleccione aleatoriamente a un grupo estadísticamente representativo, como los jurados populares, se reúnan, dispongan de recursos, tiempo y aportaciones de expertos para comprender cómo funcionan sus sistemas de IA, y luego tomen una decisión sobre el objetivo a maximizar.

P. Eso implicaría ser mejores ciudadanos, pero los recursos esenciales que alimentan la IA, como los datos y la potencia computacional, están en pocas manos. ¿Quién los controla y cómo mantienen su poder?

R. Si aceptamos que son los medios necesarios para producir IA, la cuestión es quién los controla, pues deciden para qué se utiliza. Quizás el más fundamental son los datos y hay muchas preguntas sobre hacia dónde se ha centralizado su control. Los datos de entrenamiento para modelos de lenguaje u otros modelos de IA generativa se toman de la producción intelectual más o menos de dominio público de programadores, periodistas, artistas, autores, músicos… Después los integran y nos los venden de nuevo, lo que supone una redistribución masiva del control. En esencia, la producción intelectual de muchas personas pasa a ser propiedad de unas pocas empresas.

Pero otra clase de datos trascendentales son los de nivel individual, aquellos que nos describen como personas: qué compramos, qué contenidos consumimos, nuestras opiniones políticas, nuestros amigos… Todo lo que caracteriza nuestra vida digital y fuera de ella. Son muy importantes para las decisiones que toman los sistemas de IA a nivel individual, por ejemplo, qué salarios nos ofrecen, qué trabajos conseguimos, cuánto pagamos por los productos en línea, qué información política recibimos, cuándo llama la policía a nuestra puerta… Pero también se utilizan para entrenar sistemas de IA, por lo que se vuelven importantes para todas las demás personas que, en cierto sentido, son similares a mí.

P. ¿Qué ocurre entonces con los derechos de privacidad individuales?

R. Que no nos van a proteger porque pueden diseñar sistemas, de forma que no me importe compartir mis datos si obtengo un pequeño beneficio, un producto, por ejemplo. Las consecuencias posteriores para todos podrían ser catastróficas, o al menos problemáticas, dependiendo del uso. Esa es una forma fundamental en la que el control de los datos tiene que ser más conectivo. Debemos decidir colectivamente qué datos se recopilan y para qué.

P. En algunos países y bajo ciertas ideologías, su mera sugerencia de un control democrático de la IA se consideraría extremista.

R. Hay una cuestión más amplia sobre qué entendemos por democracia. En un sentido abstracto, sería decidir colectivamente sobre nuestro destino. No podemos hacerlo individualmente porque todos dependemos unos de otros. Si tomamos como ejemplo las redes sociales, si Mark Zuckerberg o Elon Musk tienen la última palabra, se centrarán en maximizar sus ingresos publicitarios, objetivos políticos, su visión del mundo… Y eso tiene todo tipo de consecuencias, como vemos en el proceso democrático o en la salud mental de los adolescentes. Mi forma de entenderla sería que las personas, por ejemplo, los usuarios de una plataforma, pudieran decidir sobre lo que ocurre allí: la junta escolar local sobre cómo se distribuyen los alumnos entre las escuelas, la policía local decidiendo dónde enviar patrullas…

P. Es optimista.

R. Lo que me hace más optimista es que tomar colectivamente el control de las grandes tecnológicas no tiene por qué ocurrir de un día para otro. Puede ser un caso de uso tras otro, y legislar a nivel local, nacional o de otro tipo. Que estas empresas se encuentren en Estados Unidos o China no significa que en España no pueda decir: Queremos que los algoritmos de las redes sociales hagan esto. La respuesta a las patologías de la democracia no es menos democracia, sino más democracia real y donde la gente se vea afectada.

 Tecnología en EL PAÍS

FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail
Rufus T. Firefly se impone a Rosalía en unos Ruido que celebran todas las cosas buenas
La doble faz del PP: ruido en Madrid, sordina en el resto
Leer también
Cultura

‘Torrente presidente’, Santiago Segura intenta resucitar la sátira política española con más ganas que aciertos

marzo 13, 2026 6143
Deportes

Jaime Lizana, plata en la World Cup de Italia

marzo 13, 2026 12837
Cultura

Los sindicatos se oponen a la conversión del INAEM en una empresa pública

marzo 13, 2026 14023
Deportes

Los socios de Unionistas ya pueden elegir entre 155 equipaciones

marzo 13, 2026 7515
Deportes

La final de la Copa de la Reina cambia de horario

marzo 13, 2026 6067
Cultura

Lista completa de todos los nominados a los Premios Oscar 2026

marzo 13, 2026 12033
Cargar más

Sonsoles Ónega, en su emocionado regreso tras la muerte de su padre: «Gracias por arroparnos, que no devuelve la vida, pero ha aliviado el dolor de su muerte»

marzo 9, 2026

Más Vietnam, menos Irak: la lección de la Historia que usa Starmer frente a Trump

marzo 4, 2026

El cisma provocado en la UE obliga a Von der Leyen a recular: «Siempre defenderemos los principios de la ONU y el derecho internacional»

marzo 11, 2026

El Gobierno cifra en casi 17.000 millones la ayuda financiera y humanitaria española a Ucrania

marzo 12, 2026
Inmaculada Puebla: el arte de canalizar con conciencia, amor y ética

Inmaculada Puebla: el arte de canalizar con conciencia, amor y ética

noviembre 6, 2025

Trump amenaza con cortar el comercio con España y el Gobierno le exige cumplir sus acuerdos con la UE

marzo 3, 2026
Nerea Bustos Ordóñez sorprende al público con una historia de amor auténtico y profundo

Nerea Bustos Ordóñez sorprende al público con una historia de amor auténtico y profundo

abril 16, 2025

El jefe del Pentágono advierte: «Hoy será, una vez más, nuestro día más intenso de ataques en Irán»

marzo 10, 2026
Virginia García presentó su primera novela Besos de piedra en la parada de Letrame durante Sant Jordi 2025

Virginia García presentó su primera novela Besos de piedra en la parada de Letrame durante Sant Jordi 2025

abril 25, 2025
Una nueva visión de las matemáticas sorprendió en Sant Jordi 2025 con Ortuño Fernández y Editorial Letrame

Una nueva visión de las matemáticas sorprendió en Sant Jordi 2025 con Ortuño Fernández y Editorial Letrame

abril 29, 2025
    VozdelMomento -  La actualidad al instante. Noticias nacionales e internacionales.
    La actualidad al instante. Noticias de última hora nacionales e internacionales, analizadas en profundidad para que estés siempre informado. Política, economía, sociedad, cultura, deportes... Toda la información que necesitas, concentrada en un solo lugar. Tu voz, nuestra noticia. Participa en la conversación y comparte tu opinión.

    © 2024 VozdelMomento. Todos los derechos reservados
    • Aviso Legal de Voz del Momento
    • Política de Privacidad
    • Política de Cookies