• El Board AI
  • Posts
  • ¿Qué tan inteligente es Deep Research?

¿Qué tan inteligente es Deep Research?

El nuevo agente de OpenAI y sus resultados del "Humanity's Last Exam"

¡Buenos días!

Lo más importante de IA hoy:

1️⃣ ¿Qué tan inteligente es Deep Research?
2️⃣ Meta podría suspender proyectos de IA que sean de “alto riesgo”.

1️⃣ ¿Cómo le fue a Deep Research en su examen? 🧐 

Imagen: OpenAI

El fin de semana, Sam Altman, CEO de OpenAI, anunció el lanzamiento de Deep Research, un Agente capaz de entregar respuestas profundas sobre temas complejos después de un proceso de investigación y razonamiento exhaustivo.

Luego de ser lanzado, Altman publicó en su cuenta de X los resultados que obtuvo el Agente en el test conocido “Humanity’s Last Exam” (el Último Examen de la Humanidad).

Deep Research fue capaz de resolver 26.6% del total de preguntas. Otros modelos recientes, como el o3 de OpenAI o el R1 de DeepSeek, habían obtenido menos de 13%.

Vale resaltar que la complejidad del examen reside en que la IA debe resolver miles de preguntas de nivel “experto doctoral” sobre temas totalmente distintos, algo imposible para un ser humano.

¿Cuánto sacará el próximo gran modelo de IA? Ya veremos 👀 

Humanity’s Last Exam es un test construido recientemente a partir de miles de preguntas sobre temas complejos, recopiladas por expertos de todo el mundo, y que busca medir la capacidad de una IA para abordar y resolver retos extremadamente difíciles.

El examen fue creado hace apenas un mes. Con los resultados de Deep Research, ya una IA ha resuelto un cuarto de las preguntas presentadas.

2️⃣ Meta promete suspender el desarrollo de IAs de “alto riesgo” ⚠️ 

Meta ha anunciado que podría detener el desarrollo de algunos de sus sistemas de inteligencia artificial si estos se consideran demasiado riesgosos.

La compañía mencionó que prestará especial atención al desarrollo de ciertos modelos avanzados que podrían generar problemas éticos o de seguridad difíciles de controlar.

Entre las “zonas rojas” que Meta no quiere cruzar en el desarrollo de sus IAs, se encuentran modelos que sean capaces de asistir o crear ataques de ciberseguridad, biológicos o químicos.

Este cambio refleja una tendencia más cautelosa en la industria, donde las grandes empresas tecnológicas enfrentan presiones para priorizar la seguridad y la responsabilidad en sus desarrollos de IA.

Qué tengan un excelente martes

Nos vemos mañana.