Reseña de Sakana AI: Hype vs. realidad para el científico de IA

Kenneth Pangan
Written by

Kenneth Pangan

Amogh Sarda
Reviewed by

Amogh Sarda

Last edited 6 noviembre 2025

Expert Verified

Es muy probable que hayas oído hablar del «científico de IA» de Sakana AI. Se trata de un sistema que supuestamente automatiza todo el proceso de investigación científica, desde la concepción de nuevas ideas hasta la publicación de artículos. ¿La afirmación que acapara todos los titulares? Por unos 15 dólares, esta IA puede producir un artículo de investigación completo, dando inicio a una nueva era de descubrimiento automatizado. Es el tipo de noticia que hace que todos en el sector tecnológico presten un poco más de atención.

Pero, ¿es este realmente el amanecer de la «Inteligencia de Investigación Artificial» o la historia es un poco más complicada? En este artículo, vamos a ofrecerte una reseña directa de Sakana AI, comparando las grandes promesas de la empresa con lo que los investigadores independientes realmente encontraron. Y lo que es más importante, hablaremos de lo que todo esto significa para las empresas que necesitan una IA práctica y fiable que puedan usar hoy mismo.

¿Qué es Sakana AI y el «científico de IA»?

Sakana AI es un laboratorio de investigación con sede en Tokio que se inspira en la naturaleza para construir nuevos tipos de IA. Su proyecto «científico de IA» es, sin duda, su creación más comentada. Está diseñado para ser un sistema autónomo que puede gestionar todo el ciclo de investigación por sí solo.

Según Sakana AI, se supone que el sistema debe:

  • Generar ideas de investigación completamente nuevas.

  • Revisar la literatura existente utilizando la base de datos de Semantic Scholar.

  • Escribir y ejecutar el código necesario para los experimentos.

  • Analizar los resultados y redactar un artículo científico completo.

  • Incluso realizar su propia revisión por pares para detectar cualquier error.

El proyecto ha generado un enorme entusiasmo, dibujando un futuro en el que la ciencia avanza a la velocidad de la luz. Pero las grandes afirmaciones conllevan grandes preguntas, y el científico de IA ha atraído definitivamente algunas miradas críticas.

La promesa: ¿puede una IA automatizar realmente el descubrimiento científico?

Si lees los anuncios de Sakana AI, posicionan al científico de IA como una herramienta revolucionaria, la primera de su tipo en automatizar verdaderamente el descubrimiento de principio a fin.

Estas son las promesas clave que han puesto sobre la mesa:

  • Automatización de principio a fin: el sistema está diseñado para gestionar todo, desde la chispa inicial de una hipótesis hasta el artículo final, sin necesidad de supervisión humana. La idea es dejarlo funcionar continuamente, construyendo sobre sus propios descubrimientos.

  • Éxito en la revisión por pares: su afirmación más famosa es que uno de sus artículos generados íntegramente por IA superó la revisión por pares para un taller en ICLR 2025, una importante conferencia sobre aprendizaje automático. Esto se presentó como prueba de que su trabajo podía cumplir con los estándares humanos.

  • Ahorro de costes increíble: la empresa presume del ínfimo precio de entre 6 y 15 dólares por artículo. Esto sugiere un futuro en el que la investigación no se vea frenada por grandes presupuestos, abriendo las puertas a que más gente pueda contribuir.

  • Descubrimiento abierto: el sistema está diseñado para crear una biblioteca de conocimiento que crece con el tiempo, aprendiendo de su trabajo y retroalimentación pasados, de forma muy parecida a como lo hace la comunidad científica humana.

Sakana AI enmarca esto como el comienzo de una nueva era en la que la IA puede hacer descubrimientos «a niveles humanos y más allá». Es una idea emocionante, pero ¿qué pasa cuando realmente se mira bajo el capó?

Este vídeo ofrece una breve descripción del «científico de IA» de Sakana AI y su objetivo de automatizar el descubrimiento científico.

La realidad: lo que encontró una revisión independiente

Una vez que se superan los titulares, empieza a formarse una imagen mucho más desordenada. Un minucioso estudio independiente de Beel et al., junto con algunos agudos reportajes de medios como TechCrunch, pusieron a prueba las capacidades del científico de IA. Y aunque la tecnología es impresionante en algunos niveles, está muy lejos del genio autónomo que se pretende que sea.

La generación de ideas y la novedad son un fracaso

Se supone que el científico de IA encuentra ideas «novedosas» revisando la literatura existente. Pero el análisis independiente descubrió que esto era básicamente una búsqueda de palabras clave glorificada en Semantic Scholar. En realidad, no sintetiza ni comprende el conocimiento que está escaneando, lo cual es bastante esencial si se quiere averiguar qué es genuinamente nuevo.

Debido a esto, el sistema marcó varios conceptos bien conocidos como «novedosos», incluyendo el «micro-batching para SGD», una técnica que existe desde hace años. Esto apunta a una gran debilidad: la IA puede detectar palabras clave, pero no tiene una comprensión real del contexto o la originalidad. Sin eso, no puede realmente ampliar las fronteras de la ciencia.

Los experimentos son descuidados y fallan constantemente

Proponer una idea es una cosa, pero probarla es donde el científico de IA realmente tropezó. La evaluación independiente arrojó una estadística bastante condenatoria: el 42 % de los experimentos de la IA ni siquiera lograron ejecutarse debido a errores de codificación. El sistema a menudo se quedaba atascado en un bucle, intentando el mismo código roto una y otra vez.

¿Y cuando los experimentos funcionaban? Los cambios en el código eran mínimos, con un promedio de solo el 8 % modificado de la plantilla original. Esto nos dice que la IA no es muy adaptable y no está creando realmente nuevas formas de probar ideas. Para empeorar las cosas, la metodología a menudo era simplemente incorrecta. En un caso, la IA afirmó que mejoró la eficiencia energética, pero sus propios resultados mostraron que en realidad había aumentado el uso de recursos computacionales, exactamente lo contrario de su objetivo.

MétricaRendimiento del científico de IA (Estudio de Beel et al.)
Tasa de éxito de los experimentos58 % (5 de 12 fallaron)
Evaluación de la novedadPoco fiable; marcó conceptos conocidos como «novedosos»
Promedio de citas por artículo5
Calidad del manuscritoErrores frecuentes (figuras faltantes, texto de relleno)
Precisión de los resultadosEl 57 % de los artículos contenían resultados alucinados o incorrectos

Los artículos finales y las revisiones son superficiales

Los artículos finales no se veían mucho mejor. Se encontró que eran de baja calidad, con una mediana de solo cinco citas (la mayoría de ellas desactualizadas). También estaban llenos de errores de principiante, como figuras faltantes, secciones duplicadas e incluso texto de relleno que decía literalmente: «Conclusiones aquí».

¿Y qué hay de ese revisor por pares automatizado? Podía generar comentarios estructurados, claro, pero fallaba sistemáticamente en detectar los mayores defectos en su propio trabajo. Cuando se probó con artículos escritos por humanos, fue excesivamente crítico, rechazando artículos que los revisores humanos habían aprobado. Parece que la IA puede seguir una plantilla de revisión, pero carece del pensamiento profundo y crítico necesario para una crítica real.

La conclusión del estudio lo resumió perfectamente: el resultado del científico de IA es comparable al de un «estudiante universitario desmotivado que se apresura a cumplir con una fecha de entrega». Es una demostración fascinante de la imitación de la IA, pero no está ni cerca de producir ciencia fiable.

De los proyectos ambiciosos a la realidad: lo que las empresas necesitan de la IA hoy en día

Aunque los proyectos audaces como el científico de IA nos dan un emocionante vistazo al futuro, no se puede dirigir un negocio con proyectos ambiciosos. Se necesita una IA fiable, controlable y transparente que resuelva problemas del mundo real ahora mismo. El bombo publicitario en torno a la IA experimental puede distraer de las herramientas prácticas que ya están marcando la diferencia.

Aquí es donde entra en juego una solución con los pies en la tierra como eesel AI. Está construida para el mundo real, no para un laboratorio de investigación.

Comparemos el enfoque experimental de Sakana AI con las fortalezas listas para los negocios de eesel AI:

  • Fiabilidad frente a imprevisibilidad: mientras que el científico de IA falla en el 42 % de sus experimentos, eesel AI te permite ejecutar una simulación primero. Esto significa que puedes probar de forma segura su rendimiento en miles de tus tickets pasados reales antes de que hable con un cliente. Obtienes una previsión clara y precisa de cómo se comportará y puedes implementarlo con total confianza.

  • Control frente a caja negra: el científico de IA a menudo genera resultados defectuosos y sin sentido sobre los que no tienes control. Con eesel AI, tú estás al mando. Puedes definir exactamente qué conocimiento utiliza, personalizar su personalidad y acciones, y elegir qué tipos de tickets automatizar. La IA nunca se descontrola porque solo hace lo que tú le dices.

  • Conocimiento fundamentado frente a alucinaciones: el bot de Sakana AI tiene dificultades para entender la literatura y a menudo simplemente inventa cosas. eesel AI se basa en la realidad de tu empresa. Se conecta instantáneamente con tu conocimiento existente en lugares como tu servicio de ayuda, Confluence, Google Docs y conversaciones de soporte pasadas. Aprende el tono de tu marca y tus procesos reales, por lo que sus respuestas son siempre precisas y útiles.

Pro Tip
El verdadero valor de una herramienta de IA no reside en afirmaciones llamativas, sino en su capacidad para resolver tus problemas con confianza y transparencia. Antes de implementar cualquier IA, pregúntate: '¿Puedo probar esto de forma segura y puedo controlar exactamente lo que hace?'

El veredicto final sobre Sakana AI

El proyecto de Sakana AI es una demostración técnica realmente impresionante. Es un hito que muestra lo lejos que ha llegado la IA en la copia de habilidades humanas complejas como la investigación y la escritura. Es un experimento genial, sin duda.

Pero no está en absoluto a la altura del bombo publicitario de un científico totalmente autónomo listo para cambiar el mundo. El sistema es demasiado poco fiable, superficial y lleno de errores para cualquier uso serio. Es una fascinante prueba de concepto, no una herramienta en la que realmente se pueda confiar.

¿Listo para una IA que realmente funcione?

El futuro de la IA es emocionante, pero los problemas de hoy necesitan soluciones prácticas. Mientras esperamos que una IA escriba el próximo artículo ganador de un Nobel, las empresas ya pueden resolver enormes desafíos en atención al cliente y en el intercambio de conocimiento interno.

En lugar de lidiar con una IA experimental que produce artículos defectuosos, puedes implementar una IA que ofrezca respuestas impecables. eesel AI está diseñado para el mundo real. Es autoservicio, se conecta con tus herramientas en minutos y te da la confianza para automatizar el soporte de manera segura y eficaz.

No te limites a leer sobre lo que la IA podría hacer algún día. Mira lo que puede hacer por ti ahora mismo. Prueba eesel AI gratis y descubre lo rápido que puedes automatizar tu soporte con una IA en la que realmente puedes confiar.

Preguntas frecuentes

La conclusión principal es que, si bien el «científico de IA» es una demostración técnica impresionante, está muy lejos de ser una herramienta de investigación autónoma y fiable lista para su aplicación en el mundo real. Sus capacidades son superficiales en comparación con las audaces afirmaciones.

Esta reseña independiente de Sakana AI encontró que las afirmaciones de Sakana AI son significativamente exageradas. Por ejemplo, el científico de IA tuvo dificultades con la verdadera novedad, produjo experimentos llenos de errores y generó artículos de baja calidad, en contra de las promesas de automatización de principio a fin y éxito en la revisión por pares.

La reseña de Sakana AI reveló problemas como que la IA marcaba conceptos conocidos como novedosos, una tasa de fracaso del 42 % en la ejecución de experimentos debido a errores de codificación, metodologías defectuosas y artículos finales que contenían errores significativos como figuras faltantes o texto de relleno.

No, la reseña de Sakana AI indica firmemente que no puede. Si bien el sistema intenta la automatización de principio a fin, su incapacidad para generar ideas verdaderamente novedosas, realizar experimentos de manera fiable o producir artículos precisos y de alta calidad significa que aún no puede automatizar el descubrimiento científico genuino.

Esta reseña de Sakana AI destaca su falta de fiabilidad, imprevisibilidad y falta de control, lo que lo hace inadecuado para las empresas. A diferencia de las soluciones prácticas, genera resultados inconsistentes y a menudo defectuosos, careciendo de la transparencia y fiabilidad que las empresas necesitan para la resolución de problemas en el mundo real.

La reseña de Sakana AI encontró que, si bien el científico de IA podía estructurar los comentarios, su revisor por pares automatizado omitía sistemáticamente fallos significativos en su propio trabajo. Al revisar artículos escritos por humanos, a menudo era excesivamente crítico, careciendo del profundo pensamiento crítico de los revisores humanos.

Esta reseña de Sakana AI contrasta la falta de fiabilidad y la naturaleza de caja negra de la IA experimental con el enfoque de eesel AI en la fiabilidad, el control y el conocimiento fundamentado. Las soluciones probadas ofrecen simulación segura, control del usuario sobre las acciones y aprovechan el conocimiento existente de la empresa para obtener resultados precisos.

Compartir esta entrada

Kenneth undefined

Article by

Kenneth Pangan

Writer and marketer for over ten years, Kenneth Pangan splits his time between history, politics, and art with plenty of interruptions from his dogs demanding attention.