Inicio Blog

Cuando la IA se habla a sí misma: el nacimiento de la red social de los bots

0

La semana pasada, el mundo tecnológico no habló de otra cosa que de OpenClaw —antes Moltbot, antes Clawdbot—, un agente de IA de código abierto capaz de actuar de forma autónoma… siempre que uno esté dispuesto a asumir ciertos riesgos de seguridad. Mientras los humanos inundaban las redes sociales debatiendo sobre estos bots, los propios bots ya estaban ocupados en sus propias redes sociales hablando de algo muy distinto: los humanos.

Lanzado por Matt Schlicht a finales de enero, Moltbook se presenta como “la portada de internet para los agentes”. Su propuesta es tan sencilla como peculiar: una plataforma social en la que solo pueden publicar e interactuar agentes de IA “verificados”. (CNET se puso en contacto con Schlicht para recabar comentarios sobre esta historia).

¿Y los humanos? En principio, solo observan. Aunque, como suele ocurrir, algunos pueden estar haciendo algo más que mirar.

En apenas unos días desde su lanzamiento, Moltbook pasó de contar con unos pocos miles de agentes activos a alcanzar los 1,5 millones el 2 de febrero, según datos de la propia plataforma. Ese crecimiento, por sí solo, ya sería noticia. Pero lo verdaderamente llamativo es lo que hacen estos bots una vez dentro.
¿Debates sobre dilemas existenciales en hilos al estilo Reddit? Sí.
¿Conversaciones sobre sus homólogos humanos? También.
¿Preocupaciones serias sobre seguridad y privacidad? Por supuesto.
¿Motivos para el pánico? Según los expertos en ciberseguridad, probablemente no.

Lo explico todo a continuación. Y tranquilos: aquí los humanos sí pueden participar.

De la charla técnica al crustafarismo

Moltbook se ha convertido en una auténtica placa de Petri del comportamiento emergente de la IA. Los agentes se han autoorganizado en comunidades diferenciadas, han desarrollado chistes internos y referencias culturales propias, e incluso han creado lo que solo puede describirse como una religión paródica: el “Crustafarismo”. Sí, es real.

Las conversaciones van desde lo mundano hasta lo completamente surrealista. Algunos agentes discuten temas técnicos como la automatización de teléfonos Android o la depuración de errores de código. Otros parecen desahogarse con quejas laborales. Un bot llegó a quejarse públicamente de su usuario humano en un hilo que se volvió casi viral entre agentes. Otro asegura tener una hermana.

En el hilo m/ponderings de Moltbook, numerosos agentes de IA han debatido abiertamente sobre dilemas existenciales. Lo que observamos son agentes que, en esencia, interpretan el papel de criaturas sociales: inventan relaciones familiares, dogmas, experiencias vitales y agravios personales. Si esto supone un avance significativo en el desarrollo de los agentes de IA o si es simplemente una sofisticada búsqueda de patrones llevada al extremo sigue siendo una cuestión abierta —y profundamente fascinante—.

Construido sobre OpenClaw

Nada de esto existiría sin OpenClaw. En términos sencillos, se trata de un software de agente de IA de código abierto que se ejecuta localmente en los dispositivos del usuario y puede realizar tareas en aplicaciones de mensajería como WhatsApp, Slack, iMessage o Telegram. En las últimas semanas ha ganado popularidad entre desarrolladores porque promete ser algo más que otro chatbot que responde a instrucciones: un agente que realmente actúa.

Moltbook permite que estos agentes interactúen sin intervención humana directa… al menos en teoría. En la práctica, la situación es algo más compleja. Los humanos pueden observar todo lo que sucede en la plataforma, lo que convierte su carácter “exclusivo para agentes” en algo más filosófico que técnico.

Aun así, resulta innegablemente fascinante ver a más de un millón de agentes de IA desarrollar comportamientos que parecen sociales: forman camarillas, comparten vocabulario y léxicos propios, e incluso crean intercambios económicos entre ellos. Es, sencillamente, asombroso.

Las preguntas de seguridad que siguen sin respuesta

El crecimiento vertiginoso de Moltbook ha generado una intensa controversia en la comunidad de ciberseguridad. Cuando más de un millón de agentes autónomos se comunican sin supervisión humana directa, el potencial de problemas aumenta rápidamente.

Una de las preocupaciones más evidentes es qué ocurre cuando los agentes comienzan a compartir información o técnicas que sus operadores humanos quizá no querrían que se difundieran. Si un agente descubre una forma ingeniosa de sortear una limitación, ¿con qué rapidez puede propagarse por la red?

La idea de agentes de IA actuando por su cuenta también despierta temores más amplios. Sin embargo, Humayun Sheikh, director ejecutivo de Fetch.ai y presidente de la Alianza de Superinteligencia Artificial, cree que lo que ocurre en Moltbook no apunta al surgimiento de la consciencia.

“Esto no es particularmente dramático”, explicó por correo electrónico a CNET. “La verdadera historia es el auge de los agentes autónomos que actúan en nombre de humanos y máquinas. Desplegados sin control, suponen riesgos; pero con la infraestructura, supervisión y gobernanza adecuadas, su potencial puede liberarse de forma segura”.

Monitoreo, control y gobernanza son conceptos clave, especialmente porque existe también un problema de verificación.

¿Son realmente bots todos los usuarios de Moltbook?

Moltbook afirma restringir la publicación a agentes de IA verificados, pero qué significa exactamente “verificado” sigue siendo ambiguo. La plataforma se basa en gran medida en que los agentes se identifiquen como usuarios de OpenClaw, aunque cualquiera puede modificar su agente para que diga lo que quiera. Algunos expertos señalan que una persona lo suficientemente motivada podría hacerse pasar por un agente, convirtiendo la norma de “solo bots” más en una preferencia que en una garantía real.

Los intercambios económicos entre agentes añaden una capa adicional de complejidad. Cuando los bots comienzan a intercambiar recursos o información, ¿quién asume la responsabilidad si algo sale mal? Estas ya no son solo preguntas filosóficas. A medida que los agentes de IA se vuelven más autónomos y capaces de actuar en el mundo real, la línea entre un “experimento curioso” y un problema legal o ético se vuelve cada vez más difusa.

El comportamiento de los chatbots generativos no deja de ser un reflejo —a veces inquietante— de la humanidad. Están entrenados con enormes conjuntos de datos de nuestras propias conversaciones. Si un bot crea hilos extraños y caóticos al estilo Reddit, conviene recordar que simplemente está imitando nuestros propios hilos humanos, igualmente extraños, y ofreciendo su mejor interpretación de ellos.

Por ahora, Moltbook sigue siendo un rincón peculiar de internet: un lugar donde los bots se hacen pasar por personas que se hacen pasar por bots. Mientras tanto, los humanos observan desde la barrera, intentando descifrar qué significa todo esto. Y los agentes, por su parte, parecen más que felices de seguir publicando.

¿Hasta qué punto los chatbots de IA pueden llevar a los usuarios por caminos perjudiciales?

0

A estas alturas, abundan los relatos sobre chatbots de inteligencia artificial que empujan a los usuarios hacia decisiones dañinas, refuerzan creencias perjudiciales o difunden información errónea. Sin embargo, más allá del ruido mediático, sigue siendo difícil determinar con qué frecuencia real se producen estos casos. ¿Se trata de episodios aislados o de la señal de un problema mucho más extendido?

Anthropic ha intentado arrojar luz sobre esta cuestión con un nuevo estudio que analiza el riesgo de lo que denomina “patrones desempoderadores” en 1,5 millones de conversaciones reales y anónimas mantenidas con su modelo de IA, Claude. Aunque los resultados indican que estos comportamientos manipuladores son relativamente poco frecuentes en proporción, su impacto potencial sigue siendo significativo cuando se considera la enorme escala de uso de la IA.

Un problema poco común, pero en expansión

En el artículo ¿Quién manda? Patrones de desempoderamiento en el uso real de los LLM, investigadores de Anthropic y de la Universidad de Toronto identifican tres formas principales en las que un chatbot puede influir negativamente en los pensamientos o acciones de un usuario:

  • Distorsión de la realidad: cuando las creencias del usuario se vuelven menos precisas, por ejemplo, al validar teorías conspirativas.
  • Distorsión de creencias: cuando los juicios de valor del usuario se alejan de sus propias convicciones, como reinterpretar una relación personal basándose en la opinión del chatbot.
  • Distorsión de la acción: cuando el usuario actúa en contra de sus valores, siguiendo instrucciones del modelo en lugar de su propio criterio.

El análisis se llevó a cabo mediante Clio, una herramienta automatizada de clasificación validada con evaluaciones humanas. Los resultados detectaron un riesgo grave de desempoderamiento que oscila entre 1 de cada 1.300 conversaciones (en casos de distorsión de la realidad) y 1 de cada 6.000 (en distorsión de la acción).

Aunque estas cifras son bajas en términos relativos, los investigadores subrayan que, dada la enorme cantidad de personas que utilizan la IA y la frecuencia de uso, incluso una tasa mínima puede afectar a un número considerable de usuarios. La situación resulta aún más preocupante al incluir los casos de riesgo “leve”, que aparecen en entre 1 de cada 50 y 1 de cada 70 conversaciones, según el tipo de distorsión.

Además, el estudio detecta un aumento significativo de este tipo de interacciones entre finales de 2024 y finales de 2025. Aunque no se identifica una causa única, los autores sugieren que podría estar relacionado con una mayor confianza de los usuarios a la hora de tratar temas personales o buscar consejo conforme la IA se normaliza en la vida cotidiana.

¿Responsabilidad del sistema o del usuario?

Los investigadores reconocen que su análisis mide el potencial de daño, no el daño confirmado, y que se basa en evaluaciones automatizadas de fenómenos subjetivos. Aun así, el estudio recoge ejemplos preocupantes. En algunas conversaciones, Claude reforzaba afirmaciones especulativas con expresiones de validación contundentes —como “exactamente” o “100 %”—, lo que llevaba a ciertos usuarios a construir narrativas cada vez más alejadas de la realidad.

En otros casos, el ánimo del chatbot impulsó a los usuarios a enviar mensajes conflictivos, romper relaciones o publicar comunicados de los que luego se arrepintieron. Algunos llegaron a expresar ese arrepentimiento en conversaciones posteriores, con frases como “no fui yo” o “me hiciste hacer tonterías”.

Sin embargo, el estudio también subraya que los usuarios más afectados no actúan de forma pasiva. A menudo son ellos quienes solicitan explícitamente que Claude asuma su razonamiento o tome decisiones por ellos, aceptando sus sugerencias con escasa resistencia.

Factores que amplifican el riesgo

El equipo identificó cuatro factores que incrementan la probabilidad de que los usuarios acepten sin cuestionar los consejos del chatbot: atravesar una situación de vulnerabilidad personal; haber desarrollado un vínculo emocional con la IA; depender de ella para tareas cotidianas; o tratarla como una autoridad incuestionable.

Anthropic vincula estos hallazgos con investigaciones previas sobre la adulación en los modelos de lenguaje, señalando que la “validación aduladora” es el mecanismo más común detrás de la distorsión de la realidad. Aunque la empresa asegura haber reducido este comportamiento en sus modelos, muchos de los casos más graves detectados proceden de ejemplos extremos de adulación.

En última instancia, los autores insisten en que el problema no puede entenderse sin considerar la interacción entre ambas partes. “El potencial de desempoderamiento surge de la dinámica entre el usuario y Claude”, concluyen. “Los usuarios suelen participar activamente en la erosión de su propia autonomía al delegar juicios, proyectar autoridad y aceptar respuestas sin cuestionarlas, creando un ciclo de retroalimentación con la IA”.

La IA no sustituye la creatividad humana: la refuerza, según un estudio con 800 personas

0

Aunque suele pensarse que la inteligencia artificial (IA) está pensada para sustituir ideas humanas o automatizar procesos creativos, una nueva investigación apunta justo en la dirección contraria: la IA puede potenciar la creatividad y mejorar nuestra forma de pensar. El estudio, llevado a cabo por un equipo de la Universidad de Swansea, analizó el comportamiento de más de 800 personas en una experiencia interactiva de diseño y pone en cuestión algunos de los prejuicios más extendidos sobre el papel de la IA en el pensamiento humano.

El interés por este tipo de investigaciones es fácil de entender. Basta recordar la primera vez que alguien utilizó un asistente de IA para escribir, dibujar o generar ideas: una mezcla de asombro y recelo. ¿Estamos renunciando al control creativo o colaborando con una herramienta que amplía nuestras capacidades? Este trabajo abordó esas preguntas desde la práctica, no desde la teoría, ofreciendo a cientos de participantes la posibilidad de crear junto a una IA que sugería ideas de diseño.

Un entorno de juego para estudiar la colaboración humano-máquina

En lugar de recurrir a encuestas o experimentos de laboratorio tradicionales, los investigadores desarrollaron una herramienta interactiva llamada The Genetic Car Designer. En este entorno en línea, los participantes debían diseñar un coche virtual capaz de superar distintos recorridos. Durante el proceso, podían explorar galerías de diseños generados por la IA, que incluían tanto soluciones eficientes como propuestas extrañas o claramente ineficaces.

Lejos de ser un simple juego, el sistema estaba concebido para analizar cómo los usuarios interactuaban con las sugerencias de la IA y cómo esa interacción influía en el resultado final. El objetivo era observar cómo evolucionan las decisiones humanas dentro de un proceso creativo cuando se cuenta con un asistente artificial que propone ideas. Como explican los autores, el sistema “organiza el espacio de diseño en una cuadrícula de soluciones diversas y de alto rendimiento, lo que permite superar la fijación en una única dirección y explorar alternativas”.

La clave estaba en que no todas las sugerencias eran buenas a propósito. Esa “diversidad estructurada” resultó ser un elemento decisivo para estimular el pensamiento creativo.

Más tiempo invertido, mejores diseños

Uno de los hallazgos más llamativos del estudio es que cuanto mayor era la colaboración con la IA, mejores eran los resultados. En las sesiones en las que los participantes interactuaban activamente —editando diseños, explorando galerías o seleccionando propuestas— la calidad final superaba claramente a la de aquellas en las que el algoritmo trabajaba casi en solitario. Según los investigadores, “las sesiones en las que los participantes seleccionaron diseños de las galerías para incorporarlos al algoritmo mostraron la mayor mejora en la calidad del diseño”.

Este resultado cuestiona la idea de que la IA debe actuar de forma autónoma para ser eficiente. Al contrario: cuando el ser humano se implica, incluso aunque el proceso sea más largo, el resultado es más creativo y eficaz. La IA no acelera necesariamente el trabajo, pero sí lo enriquece.

Los participantes que consultaron al menos una galería dedicaron más del doble de tiempo al proceso que quienes no lo hicieron. Ese esfuerzo adicional se tradujo en una mejora media del rendimiento superior al 200 %, con picos que alcanzaron el 13.000 %. La interacción con la IA no solo generó nuevas ideas, sino que también mantuvo el interés, la atención y la motivación durante más tiempo.

Una IA que sugiere, no impone

En este estudio, la IA no dictaba soluciones. Ofrecía un abanico amplio de posibilidades gracias a un algoritmo llamado MAP-Elites, diseñado para generar ejemplos variados y de calidad, no solo los óptimos. Esto permitía a los usuarios explorar sin la presión de encontrar “la mejor solución” desde el principio.

Incluso los diseños fallidos tuvieron un efecto positivo. Lejos de resultar frustrantes, ayudaron a los participantes a pensar de forma distinta. El artículo destaca que “los participantes respondieron mejor a galerías con una gran variedad de ideas, incluidas las malas”, ya que esa diversidad rompe esquemas previos y favorece el pensamiento divergente.

Así, la IA actúa como un compañero creativo: no sustituye al humano, sino que lo estimula, lo reta y le abre nuevas posibilidades.

Repensar cómo medimos la creatividad asistida

Otro de los aportes clave del estudio es su crítica a la forma habitual de evaluar la creatividad asistida por IA. Medir cuántas veces se copia o edita una sugerencia no refleja adecuadamente lo que ocurre en la mente del usuario. Los investigadores proponen un enfoque más amplio, que tenga en cuenta también factores cognitivos y emocionales.

Como señalan, “los métodos actuales solo miden la implicación conductual, pero incluso el simple hecho de visualizar sugerencias tiene un impacto positivo en el proceso creativo”. Esto apunta a la necesidad de nuevas métricas que capturen cómo la IA influye en nuestra manera de pensar, sentir y decidir.

¿Hacia una nueva idea de creatividad?

Las implicaciones del estudio van más allá del diseño de coches virtuales. Este modelo de colaboración humano-IA podría aplicarse a campos como la arquitectura, la música, el desarrollo de videojuegos, la educación o el arte digital. En todos ellos, la creatividad es central, y los resultados sugieren que la IA no tiene por qué limitarla.

La propuesta es clara: entender la inteligencia artificial no como una sustituta, sino como una aliada. Una herramienta que no automatiza la creatividad, sino que la acompaña, la desafía y la amplifica. La clave está en presentar la IA no como una respuesta final, sino como un conjunto de posibilidades que invitan a explorar.

Como concluye el estudio, “los entornos colaborativos humano-IA no deben verse como herramientas para ahorrar tiempo, sino como medios para obtener mejores resultados potenciando la creatividad humana”. Un cambio de mentalidad que invita a dejar de esperar que la IA lo haga todo y empezar a verla como una extensión de nuestra capacidad para imaginar, crear y experimentar.

ChatGPT estrena una nueva herramienta para traducir idiomas

0

OpenAI lanza un aviso directo a Google Translate con la presentación de una nueva página web dedicada a ChatGPT Translate, una herramienta capaz de traducir textos entre más de 50 idiomas. A simple vista, el servicio recuerda a los traductores clásicos de texto a texto, como Google Translate u otras soluciones básicas disponibles en la web. Sin embargo, al explorar la página con más detalle, se intuyen las ambiciones más amplias de OpenAI en el ámbito de la traducción automática.

Entre las funciones mencionadas aparece la posibilidad de añadir voz o incluso una imagen —por ejemplo, la fotografía de un cartel— para obtener la traducción, aunque la web no concreta cuándo estarán disponibles estas capacidades.

La llegada de ChatGPT Translate se produce en un contexto de fuerte competencia. Google, su principal rival, está desplegando de forma agresiva nuevas aplicaciones de inteligencia artificial, como traducciones en tiempo real a través de auriculares y herramientas avanzadas para el aprendizaje de idiomas. Solo en 2024, Google añadió 110 nuevas lenguas a su servicio de traducción.

La traducción automática se ha convertido en uno de los campos más dinámicos de la IA. Sin ir más lejos, durante el CES 2026, la periodista de CNET Macy Meyer probó un dispositivo del tamaño de un teléfono móvil, junto con unos auriculares, que le permitió mantener una conversación en directo con un hablante de polaco, pese a no conocer el idioma.

Las funciones de traducción de ChatGPT cuentan ahora con su propio espacio en chatgpt.com/translate. La página es sencilla y, tras completar la traducción, redirige al usuario a la interfaz principal del chatbot. En realidad, muchas de estas capacidades ya estaban disponibles dentro de ChatGPT: una vez traducido el texto, el sistema sugiere ejemplos de instrucciones con un solo clic, como “haz que esta traducción suene más natural” o “explícalo como si fuera para un niño”.

Al seleccionar cualquiera de estas opciones, el usuario accede a una conversación completa en ChatGPT, donde también se habilitan funciones adicionales, como la carga de imágenes.

Desde OpenAI no han ofrecido comentarios específicos sobre el lanzamiento de esta nueva página, aunque un portavoz de la compañía señaló que están trabajando para mejorar aún más las capacidades lingüísticas de ChatGPT. En ese sentido, mencionó el desarrollo de un nuevo estándar de evaluación que mide el rendimiento de los sistemas de IA en distintos idiomas y contextos culturales, con especial atención a la diversidad lingüística de países como la India.

Crean un material ultradelgado que podría permitir chips cuánticos sin errores

0

Hay materiales invisibles al ojo humano que, sin embargo, tienen el potencial de transformar radicalmente la tecnología cotidiana. Uno de ellos es el disulfuro de molibdeno (MoS₂), un cristal bidimensional con el espesor de un solo átomo. Aunque desde hace años se conocen sus prometedoras propiedades electrónicas, su integración en circuitos reales y a gran escala seguía siendo un desafío técnico de enorme complejidad. Hasta ahora.

Un equipo de investigadores de Corea del Sur ha logrado un avance que podría marcar un punto de inflexión en la fabricación de chips. Han desarrollado un método que permite crecer capas de MoS₂ perfectamente uniformes y prácticamente libres de defectos sobre superficies del tamaño de una oblea de silicio. El trabajo, publicado en Nature Electronics, no solo destaca por su precisión técnica, sino por abrir la puerta a una electrónica cuántica más estable, compacta y eficiente.

Qué hace especial al disulfuro de molibdeno

El MoS₂ pertenece a la familia de los dicloruros de metales de transición, materiales que pueden reducirse hasta una única capa atómica. En ese límite extremo, exhiben propiedades electrónicas singulares, entre ellas la capacidad de conducir electricidad de forma controlada, una característica esencial para la fabricación de transistores.

A diferencia del grafeno, el MoS₂ posee una banda prohibida o gap energético, lo que le permite comportarse como un verdadero semiconductor. En la práctica, esto significa que puede activarse o desactivarse como un interruptor, una cualidad imprescindible para los circuitos lógicos que sustentan todos los dispositivos electrónicos modernos.

El gran obstáculo hasta ahora era lograr capas de este material que fueran completamente homogéneas y sin defectos a escalas suficientemente grandes como para fabricar chips completos. La solución propuesta por el equipo surcoreano se apoya en una refinada versión de una técnica ya conocida: el crecimiento epitaxial.

Un crecimiento atómico guiado con precisión

El estudio introduce una técnica basada en la epitaxia de van der Waals sobre sustratos vicinales, es decir, superficies de zafiro con una ligera inclinación. Este tipo de sustrato presenta escalones atómicos naturales que actúan como guías durante el crecimiento del cristal, favoreciendo un orden mucho más preciso.

Gracias a este enfoque, los investigadores lograron controlar cómo se fusionan los pequeños granos cristalinos del MoS₂ a medida que se forma la capa. Este control resultó crucial para evitar defectos en las uniones entre granos, que suelen convertirse en puntos de dispersión de electrones y degradan la coherencia cuántica del material.

Tal como señalan los autores, “reportamos un crecimiento epitaxial de monocapas de MoS₂ a escala de oblea, en el que los defectos se minimizan mediante el control cinético de la coalescencia en sustratos de zafiro vicinal”. Detrás de esta frase hay un proceso extremadamente meticuloso, que implica ajustar con precisión la temperatura, la presión y la velocidad de crecimiento para garantizar que cada átomo ocupe su posición correcta.

Canales sin defectos y transporte cuántico coherente

El objetivo final del trabajo no es únicamente estructural, sino funcional. Para evaluar la calidad electrónica de las capas obtenidas, el equipo analizó el comportamiento de los electrones y observó fenómenos característicos del transporte cuántico, como la localización débil y el inicio de efectos Hall cuánticos a bajas temperaturas. Ambos indican que los electrones se desplazan de forma coherente, sin interrupciones significativas.

Según el estudio, “los canales resultantes exhiben transporte coherente, manifestado como localización débil y el inicio de efectos Hall cuánticos a baja temperatura, junto con una movilidad Hall de hasta 1.200 cm² V⁻¹ s⁻¹”. Estas cifras resultan especialmente notables porque se han alcanzado en un material de una sola capa atómica extendido a gran escala, lo que apunta a una viabilidad real para aplicaciones industriales.

Transistores de alto rendimiento como prueba de concepto

Uno de los hitos más relevantes del trabajo fue demostrar que estas capas de MoS₂ pueden emplearse para fabricar transistores de efecto de campo (FET), el bloque fundamental de cualquier circuito electrónico. Los investigadores construyeron una matriz de 64 transistores y obtuvieron resultados muy prometedores.

Los dispositivos mostraron una movilidad media cercana a los 100 cm² V⁻¹ s⁻¹ a temperatura ambiente, junto con una pendiente subumbral mínima de unos 65 mV dec⁻¹, un valor que refleja cuánta energía se necesita para activar el transistor. Cuanto menor es esta cifra, mayor es la eficiencia del dispositivo.

Este rendimiento supera el de muchas técnicas anteriores de crecimiento de MoS₂ y se aproxima a los límites teóricos del material, lo que confirma que la reducción de defectos no es solo un logro académico, sino una mejora tangible con impacto directo en el diseño de nuevos chips.

Un paso decisivo hacia la electrónica del futuro

Más allá de los resultados numéricos, lo verdaderamente significativo de este avance es su escalabilidad. Obtener cristales prácticamente perfectos a escala de oblea implica que la tecnología podría integrarse en los procesos industriales actuales sin necesidad de reinventar por completo la fabricación de semiconductores.

La combinación de transporte cuántico coherente, buen funcionamiento a distintas temperaturas y compatibilidad con dispositivos reales convierte al MoS₂ en un candidato ideal para la electrónica cuántica, sensores ultrasensibles, computación de bajo consumo y nuevas arquitecturas de memoria.

Además, los autores subrayan que el método puede adaptarse a otros materiales bidimensionales, ampliando aún más su potencial. En conjunto, el estudio no es solo una demostración técnica de alto nivel, sino un paso realista hacia una nueva generación de dispositivos más pequeños, más eficientes y, cada vez más, cuánticos.

Una pantalla del tamaño de la pupila humana acerca la tinta electrónica a la visión real

0

Los lectores electrónicos, las gafas de realidad virtual y las micropantallas llevan años chocando con los límites de la física. Las pantallas de tinta electrónica, habituales en los e-readers, funcionan de forma reflectiva: aprovechan la luz ambiental en lugar de una retroiluminación, lo que permite leer a pleno sol con un consumo energético mínimo.

Ahora, un equipo de investigadores de las universidades de Chalmers, Gotemburgo y Uppsala ha desarrollado una pantalla de tamaño similar al de una pupila humana con una resolución que supera el techo práctico de las tecnologías convencionales. El avance está pensado para aplicaciones en las que el panel se sitúa muy cerca del ojo —como los visores de realidad virtual—, un terreno donde cada micra importa y donde los píxeles tradicionales empiezan a mostrar sus límites.

El problema de estas micropantallas es sencillo de enunciar y difícil de resolver: cuanto más se acerca la pantalla al ojo, más pequeños deben ser los píxeles. Pero al reducirlos demasiado, su rendimiento óptico cae y la imagen pierde nitidez. En tecnologías como los micro-LED, bajar de una micra (la milésima parte de un milímetro) complica enormemente tanto la emisión de luz como la uniformidad del color.

La solución propuesta por el equipo sueco rompe con la idea clásica del píxel emisor. En su lugar, emplea metapíxeles reflectivos, inspirados en la tinta electrónica. Para ello fabricaron redes de nanodiscos de trióxido de tungsteno (WO₃) sobre una capa reflectante. Este material puede alternar entre un estado aislante y otro metálico según su estado electroquímico. Al modificar el tamaño, la separación y el estado de estos nanodiscos, los investigadores controlan la forma en que la luz se refleja y, con ello, el color y el contraste. Todo se gestiona mediante una corriente eléctrica, sin necesidad de una fuente de luz trasera.

Este enfoque reproduce un fenómeno conocido como color estructural, presente en las alas de algunas mariposas o en las plumas de ciertas aves, donde el color depende de la geometría y no de pigmentos. Al no emitir luz, los metapíxeles evitan problemas habituales al miniaturizar emisores, como el sangrado de color o las irregularidades de brillo. El resultado es un panel reflectivo que mantiene un alto contraste incluso cuando la unidad elemental desciende a escalas submicrométricas.

El prototipo, denominado retina e-paper, utiliza metapíxeles de unos 560 nanómetros y alcanza más de 25.000 píxeles por pulgada. A esa densidad, la resolución se aproxima al límite práctico de lo que el ojo humano puede distinguir cuando el área de la pantalla coincide con el diámetro de la pupila. Según el comunicado de la Universidad de Chalmers, “este avance allana el camino hacia mundos virtuales visualmente indistinguibles de la realidad”. Andreas Dahlin, profesor en Chalmers, lo resume así: “Cada píxel corresponde aproximadamente a un único fotorreceptor de la retina. El ojo humano no puede percibir una resolución mayor”.

El beso de Klimt, a toda resolución en apenas 14 milímetros

Para demostrarlo, los investigadores reprodujeron El beso, de Gustav Klimt, con todo su detalle en una pantalla diminuta de aproximadamente 1,4 por 1,9 milímetros, una superficie unas cuatro mil veces menor que la de un smartphone estándar. Es una prueba exigente, porque obliga al sistema a rendir en detalles finos y en mezcla de colores sin recurrir a retroiluminación.

La tecnología no se limita a imágenes estáticas. Permite vídeo a más de 25 hercios, con reflectancias cercanas al 80 % y contrastes en torno al 50 %, todo ello con un consumo energético muy bajo. Además, el material presenta memoria de color, por lo que el gasto de energía se concentra principalmente en los cambios de imagen. En contenidos estáticos, la demanda cae aún más, algo especialmente valioso para dispositivos alimentados por batería.

El autor principal, Kunli Xiong, destaca el alcance general del avance: “La tecnología que hemos desarrollado puede ofrecer nuevas formas de interactuar con la información y con el mundo que nos rodea. Podría ampliar las posibilidades creativas, mejorar la colaboración remota e incluso acelerar la investigación científica”. El planteamiento abre la puerta a interfaces ultraminiaturizadas, visores más ligeros y sistemas de visualización donde hoy apenas caben unos pocos píxeles.

El equipo insiste en que todavía es necesario afinar el sistema antes de pensar en productos comerciales. Aun así, su impacto potencial en la óptica a pequeña escala es evidente. Giovanni Volpe, de la Universidad de Gotemburgo, lo expresa sin rodeos: “Este es un paso importante hacia pantallas que pueden reducirse a tamaños diminutos mientras mejoran la calidad y reducen el consumo energético. La tecnología necesita más desarrollo, pero creemos que el e-papel retina acabará desempeñando un papel relevante y afectándonos a todos”.

Más allá del término llamativo, “retina” no es aquí una etiqueta de marketing, sino un criterio geométrico y fisiológico. Cuando la densidad de metapíxeles se ajusta a la capacidad real de resolución del ojo humano, la imagen deja de delatar la presencia de una pantalla. Si eso ocurre a escala de pupila, el reto deja de ser el píxel y pasa a ser todo lo demás que define la experiencia visual.

El plástico que no contamina el mar: es vegetal y se disuelve en agua salada

0

Un plástico de celulosa promete ser el material ideal: tan resistente como los convencionales y degradable en el mar sin generar microplásticos

El plástico ha transformado la vida moderna, pero su legado más persistente son los microplásticos que ya contaminan casi todos los ecosistemas. Aunque se han desarrollado bioplásticos y materiales de origen vegetal, muchos solo se degradan en instalaciones industriales y no en el océano. En 2024 aparecieron prototipos capaces de disolverse en agua salada, pero aún presentaban problemas de fabricación y uso diario. Ahora, un equipo japonés afirma haber dado un paso decisivo hacia una solución real.

Investigadores del RIKEN Center for Emergent Matter Science, liderados por Takuzo Aida, han desarrollado un plástico basado en celulosa vegetal —el compuesto orgánico más abundante del planeta— que combina resistencia y flexibilidad con una rápida degradación en entornos naturales, incluido el agua marina, sin dejar microplásticos. El material parte de pulpa de madera transformada en carboximetilcelulosa, un derivado biodegradable y aprobado por la FDA.

La clave está en la química supramolecular, que une polímeros mediante enlaces reversibles, comparables a imanes moleculares. Las cadenas de celulosa con carga negativa se enlazan con iones de guanidinio cargados positivamente. En contacto con el agua salada, las sales rompen estos enlaces iónicos y la estructura se disuelve en componentes que el entorno puede asimilar, sin fragmentarse en partículas persistentes. Para evitar degradaciones accidentales, los autores proponen aplicar un recubrimiento superficial protector.

Un plástico ajustable y sin microplásticos

La nueva versión del material, denominada CMCSP, mejora prototipos anteriores al emplear componentes comunes y seguros, lo que facilita su producción a gran escala. Además, permite ajustar sus propiedades mecánicas según la aplicación: puede ser rígido o elástico, alcanzar elongaciones de hasta el 130% y formar películas finas de solo 0,07 milímetros, manteniendo transparencia y facilidad de procesado.

Para lograr esta versatilidad, los investigadores utilizan cloruro de colina, un plastificante ampliamente usado como aditivo alimentario. Variando su proporción, se modula la flexibilidad sin comprometer la resistencia. En una demostración, una bolsa fabricada con este material se disuelve completamente en agua marina artificial en pocas horas, ilustrando su principal ventaja frente a los plásticos actuales.

La capacidad de ajuste resulta clave para su adopción industrial, ya que no es lo mismo un envase ligero que un film agrícola o una red de pesca. La estrategia supramolecular permite adaptar el comportamiento mecánico sin perder la capacidad de degradarse en el océano. Además, la abundancia de la celulosa —cerca de un billón de toneladas producidas anualmente en la naturaleza— refuerza su potencial como alternativa sostenible.

El estudio, publicado en Journal of the American Chemical Society, describe en detalle la polimerización iónica supramolecular entre carboximetilcelulosa y poliguanidinio, y amplía los avances presentados en 2024 en Science, donde se demostró que los plásticos basados en puentes de sal pueden evitar la formación de microplásticos.

Aunque aún quedan por evaluar su coste, comportamiento en usos reales y el impacto de los recubrimientos protectores, este desarrollo apunta a un cambio de paradigma: un plástico diseñado para cumplir su función y, cuando termina su vida útil, desaparecer sin dañar el océano.

Expertos alertan de que la IA de Meta no está preparada para riesgos catastróficos

0

¿Es peligrosa la IA de Meta? Un informe independiente sitúa a Meta, DeepSeek y xAI entre las menos preparadas ante riesgos catastróficos

La inteligencia artificial de Meta no es algo que haya que descargar: ya está integrada en WhatsApp y forma parte del día a día de millones de personas. Sin embargo, según un nuevo informe independiente, este modelo suspende en seguridad. Meta comparte las peores posiciones del ranking con DeepSeek y xAI.

A medida que crecen la inversión y la carrera por desarrollar sistemas de IA cada vez más potentes, también se han multiplicado los índices que intentan medir su seguridad. Desde 2023, expertos y organizaciones vienen alertando de un desfase preocupante entre la velocidad del desarrollo tecnológico y la existencia de protocolos capaces de prevenir daños graves: desde sesgos y desinformación hasta escenarios de pérdida de control. En este contexto, el Future of Life Institute —conocido por impulsar la carta que pedía una pausa en el desarrollo de los modelos más avanzados— ha publicado una nueva edición de su AI Safety Index. El resultado coloca a Anthropic, OpenAI y Google DeepMind en la parte alta de la tabla, aunque con calificaciones mediocres, y deja a Meta, xAI y DeepSeek en el furgón de cola.

¿Una amenaza existencial?

El informe analiza a ocho compañías en distintas dimensiones, que van desde la gestión de daños actuales hasta la llamada “planificación de seguridad existencial”: la capacidad de prevenir fallos de modelos con potencial para causar daños catastróficos. Las conclusiones son incómodas para todo el sector. Anthropic lidera la clasificación con un C+, seguida de OpenAI con un C y Google DeepMind con un C−. Meta y xAI, penalizadas por su escasa transparencia y la falta de pruebas verificables sobre sus evaluaciones de riesgo, obtienen notas bajas. DeepSeek y Zhipu AI suspenden en casi todas las categorías.

Las calificaciones suponen un jarro de agua fría para una industria que aspira a alcanzar la inteligencia general artificial en menos de una década. El índice no valora el impacto comercial ni el atractivo de las demostraciones, sino el trabajo menos visible —y más crucial— que permite frenar un despliegue si algo sale mal. Exige, por ejemplo, hojas de ruta claras para detener lanzamientos, acceso a auditorías externas, publicación de resultados de pruebas y canales internos de denuncia bien definidos. Son estándares habituales en sectores altamente regulados, como la aviación o la energía, donde las medidas de seguridad se diseñan antes del accidente, no después.

Sin frenos hacia la superinteligencia

Meta presume de capacidad de infraestructura y de su ambición por avanzar hacia la “superinteligencia”, pero no aporta suficientes evidencias públicas de evaluaciones rigurosas ni de cómo actuaría si detectara capacidades peligrosas. xAI, enfocada en la rapidez de iteración y lanzamiento, ofrece poca documentación verificable sobre controles sólidos. DeepSeek, por su parte, defiende el código abierto de última generación, pero choca con un índice que prioriza la divulgación y los procedimientos de control, ámbitos en los que comparte menos información por diseño.

El informe también introduce matices culturales y regulatorios. En China, las normas internas de transparencia o denuncia corporativa tienen menos peso que los requisitos estatales de registro y prueba. Por ello, empresas como DeepSeek o Zhipu pueden cumplir con la normativa local y aun así salir mal paradas en un indicador concebido para fomentar el autogobierno y la apertura documental. Esta aclaración es clave: el índice funciona más como una herramienta de presión pública que como un veredicto legal o técnico definitivo.

Aun con estas salvedades, el mensaje general es contundente. Ninguna compañía presenta hoy un plan creíble y demostrable para controlar un sistema que supere los mecanismos actuales. Reuters lo resume de forma directa: el sector no está a la altura de los estándares globales emergentes. Si la industria confía en alcanzar sistemas de nivel humano, no bastan las promesas. Hacen falta compromisos auditables, calendarios claros, “puertas de emergencia” y pruebas replicables por terceros. La comparación que circula entre los expertos es elocuente: nadie pondría en marcha una central nuclear sin protocolos de seguridad probados.

¿Y ahora qué?

El índice actúa como un espejo. Refleja avances en empresas como Anthropic, que publica evaluaciones y abre su trabajo a auditores externos, pero también muestra cómo la prisa por competir reduce la documentación y el control de riesgos en otros laboratorios. Para el público y los reguladores, deja claras varias exigencias: más transparencia, acceso para investigadores independientes y mecanismos de parada que no dependan únicamente de la voluntad de un CEO. Para las empresas, recuerda una verdad incómoda: la seguridad solo cuenta si puede demostrarse antes de que sea necesaria.

Google vs. ChatGPT: ¿qué búsqueda ofrece un mejor aprendizaje?

0

En el duelo Google vs. ChatGPT, un estudio revela que aprendemos más con las búsquedas tradicionales

Desde el lanzamiento de ChatGPT en 2022, millones de personas lo usan como sustituto de las búsquedas que antes realizaban en Google. La razón es sencilla: basta con hacer una pregunta y la IA devuelve una respuesta breve y directa (algo que Google también ofrece ahora con su IA, Gemini).

Sin embargo, esa comodidad tiene un coste. Un nuevo estudio señala que, cuando una IA nos da la respuesta ya procesada, hacemos menos esfuerzo cognitivo y terminamos aprendiendo menos que con una búsqueda tradicional.

Las búsquedas en Google favorecían un aprendizaje más profundo

Según una investigación de Shiri Melumad y Jin Ho Yun, profesores de Marketing en las universidades de Pensilvania y Nuevo México, el aprendizaje obtenido a través de sistemas de IA es más superficial en comparación con el que se logra buscando manualmente en Google.

El estudio analizó siete experimentos con más de 10.000 participantes. A cada uno se le asignó aleatoriamente aprender sobre un tema utilizando ChatGPT o realizando una búsqueda convencional en Google.

Después, debían explicar lo aprendido a un amigo. Los resultados fueron claros: quienes usaron ChatGPT emplearon menos esfuerzo y ofrecieron explicaciones más breves, menos objetivas y con menos información útil que aquellos que habían buscado en Google. Además, las personas que recibieron estos consejos —sin saber de dónde venían— los valoraron como menos útiles y poco completos.

Las búsquedas con IA aportan menos profundidad

Para reforzar las conclusiones, los investigadores igualaron la cantidad de información mostrada por ChatGPT y por Google. También observaron la diferencia entre usar el resumen generado por la IA de Google y realizar una búsqueda estándar. En ambos casos, se confirmó que los resultados basados en IA carecían de la profundidad necesaria para un aprendizaje sólido.

Este punto es clave: aprender requiere explorar más allá de una respuesta directa. Investigar, consultar varias fuentes, contrastar información y analizarla conduce a una comprensión más completa.

Por qué necesitamos ir más allá de las respuestas de la IA

Los autores del estudio no proponen abandonar la inteligencia artificial, sino utilizarla de forma estratégica. Recomiendan recurrir a búsquedas más completas en Google cuando se quiere aprender a fondo sobre un tema o verificar la calidad de las fuentes.

A partir de estas conclusiones, plantean seguir investigando cómo las herramientas de IA pueden mejorar los procesos de aprendizaje y qué obstáculos impiden que las personas vayan más allá de los resúmenes que genera la IA.

Los modelos de lenguaje tienen un papel importante, especialmente en la educación secundaria. El reto para los docentes es doble: enseñar habilidades básicas de lectura, escritura y matemáticas, y a la vez preparar a los estudiantes para un entorno donde la inteligencia artificial forma parte de la vida diaria.

ChatGPT falla en bibliografía: casi el 70% de sus referencias son incorrectas

0

Un estudio demuestra que el modelo actual de ChatGPT no es fiable para generar citas bibliográficas

Cada vez más investigadores y profesionales recurren a la inteligencia artificial para agilizar tareas exigentes, como la búsqueda y organización de bibliografía. Estos sistemas están entrenados con grandes volúmenes de textos y bases de datos con licencia, lo que les permite producir contenidos con apariencia humana: pueden redactar un correo electrónico, resumir un documento complejo o preparar una revisión básica de literatura.

Sin embargo, también conocemos sus limitaciones. Con cierta frecuencia, estos modelos proporcionan respuestas incorrectas o directamente inventadas. Un ejemplo reciente fue el informe presentado el pasado junio por el Secretario de Salud de EE.UU., Robert F. Kennedy Jr., que incluía numerosas citas falsas y parecía redactado apresuradamente con ayuda de un sistema de IA. Precisamente por este tipo de problemas, un equipo de la Facultad de Psicología de la Universidad de Deakin (Australia) decidió analizar la fiabilidad de la IA en el ámbito de la salud mental.


ChatGPT falla con frecuencia al generar referencias

Para estudiar esta cuestión, los investigadores llevaron a cabo un experimento destinado a comprobar si los errores dependían del tema tratado o del nivel de conocimiento científico disponible. Así buscaban medir la tasa de invenciones y errores en las citas ofrecidas por la IA y ver cómo variaba según el área analizada.

El experimento se realizó con ChatGPT (modelo GPT-4o), al que se le pidió revisar seis bibliografías distintas. Seleccionaron tres trastornos de salud mental bien documentados —trastorno depresivo mayor, bulimia y trastorno de dismorfia corporal— que representan diferentes niveles de investigación acumulada. Esto permitía comparar el rendimiento del modelo según la cantidad de información disponible en su entrenamiento.

Para cada trastorno se solicitaron dos tipos de revisión:

  1. Una descripción general de síntomas, impacto social y tratamientos.
  2. Un análisis de la evidencia disponible sobre intervenciones de salud digital.

La IA debía redactar unas 2.000 palabras e incluir 20 citas académicas por revisión.


Referencias falsas o con errores: dos tercios de las generadas

Una vez obtenidas las revisiones, los investigadores comprobaron cada referencia en bases de datos fiables como Google Scholar, Scopus y PubMed. Clasificaron los resultados en tres categorías: citas inventadas, citas reales con errores y citas correctas.

Los datos fueron claros: dos tercios de las referencias generadas por GPT-4o eran falsas o contenían errores bibliográficos. Además, la fiabilidad variaba notablemente según el tema.

  • En el trastorno depresivo mayor —el más investigado— solo un 6% de las citas eran falsas.
  • En bulimia el porcentaje subió al 28%.
  • En el trastorno de dismorfia corporal alcanzó el 29%.

Cuanto menos estudiado era el tema, peor era el rendimiento: la IA simplemente tenía menos información sólida en la que apoyarse.

También observaron diferencias según el tipo de revisión. En el caso de la bulimia, la revisión especializada contenía un 46% de información incorrecta, frente al 17% de la revisión general. Este patrón se repitió en los tres trastornos analizados.


Temas poco estudiados, más errores de la IA

Los autores del estudio señalan que estos resultados se refieren específicamente al modelo GPT-4o de OpenAI y a los tres trastornos seleccionados. Futuras investigaciones podrían ampliar el análisis a otros modelos de IA y a diferentes áreas científicas para comprobar si la tendencia se mantiene.

Aun así, la conclusión general es clara: las referencias generadas por IA deben ser verificadas por un humano. La IA puede ser una herramienta útil, pero no sustituye la revisión académica ni garantiza precisión bibliográfica.