El CEO de Samsung, TM Roh, subió al escenario en San Francisco el miércoles, presentó la línea de teléfonos Galaxy S26 y dijo algo que ningún fabricante de teléfonos había mencionado antes. “Imagina un teléfono que anticipa tus necesidades antes de que tú mismo las reconozcas,” dijo. “Un teléfono que aprende tus hábitos y se adapta en tiempo real. Un teléfono que actúa en tu nombre. Este es el teléfono con IA agentic.” Eso suena interesante, pero ¿qué significa realmente “teléfono con IA agentic” y por qué debería importarle a alguien?
Hasta ahora, la IA en los teléfonos ha sido reactiva. Tú preguntas, ella responde. La IA agentic es diferente. Toma acciones en tu nombre, en varias aplicaciones, sin que tú tengas que tocar o hablar. Piensa en la diferencia entre un motor de búsqueda y un asistente personal que realmente reserva el restaurante después de que mencionas que tienes hambre. Ese cambio parece ser lo que todas las empresas tecnológicas han estado persiguiendo desde que Siri se lanzó en el iPhone 4S de Apple en 2011—y sí, Siri fue probablemente el primer intento real de una experiencia de teléfono con IA agentic. Se suponía que solo hablaras con tu teléfono y él hiciera cosas. Después de todos estos años, todavía no estamos allí, pero Samsung y Google están intentando construirlo.
Esto también es lo que una ola de startups de hardware de IA ha intentado—y fallado—en los últimos dos años. El Humane AI Pin, lanzado a finales de 2023 por $699 más una suscripción mensual de $24, fue destrozado en las reseñas, vendió apenas 10,000 unidades y terminó siendo adquirido por HP por $116 millones—una fracción de su valoración de mil millones de dólares. El Rabbit R1, un compañero de IA de bolsillo por $199 que el CEO de Microsoft, Satya Nadella, llamó la demostración tecnológica más impresionante desde que Steve Jobs presentó el iPhone, se envió a usuarios reales y decepcionó a casi todos. Ambos dispositivos compartían la misma idea principal: tu teléfono no puede hacer IA agentic, así que necesitas un dispositivo dedicado. Resulta que, en realidad, solo hacía falta mejor software. Samsung ahora dice que está entregando exactamente lo que esos gadgets prometían—no con un nuevo hardware que debes llevar contigo, sino mediante una capa de software integrada directamente en un dispositivo que ya posees.
El motor detrás de las funciones agentic del Galaxy S26 es Gemini de Google—específicamente una nueva capacidad en la que la IA abre aplicaciones en una ventana de fondo virtual y las navega mientras tú haces otra cosa completamente diferente. En el evento Unpacked, Samir Samat de Google mostró una demostración: el chat grupal familiar se llena de solicitudes de pizza, Gemini lee el hilo, averigua el pedido de todos, abre DoorDash, construye el carrito y espera tu toque manual antes de confirmar. Tu teléfono permanece usable en todo momento. Al lanzamiento, eso funciona para DoorDash, GrubHub, Uber, Kroger, Walmart y otras aplicaciones seleccionadas en una lista muy corta. Se está implementando primero como una vista previa limitada en EE. UU. y Corea del Sur, con más aplicaciones por venir. Llamarlo una versión beta sería correcto—Google está recopilando explícitamente comentarios de los usuarios de S26. La principal salvaguarda: Gemini nunca toca “confirmar” o “pagar” sin tu toque final. También puedes verlo en funcionamiento en tiempo real si no confías en que opere sin supervisión, lo cual es justo.
Junto con Gemini, Samsung está incorporando Perplexity como un segundo agente a nivel de sistema. Perplexity, que se autodenomina un “motor de respuestas” en lugar de un chatbot, será accesible mediante una frase de activación o un acceso directo en el botón lateral del S26. Dentro del navegador web de Samsung, la función Ask AI de Perplexity puede escanear todas tus pestañas abiertas y tu historial de navegación reciente simultáneamente para responder a una pregunta de investigación sin que tengas que saltar entre fuentes. Samsung dice que casi el 80% de los usuarios ya confían en más de dos agentes de IA diariamente—lo que justifica ofrecer ambos en lugar de uno solo. También hay un nuevo Bixby, el asistente de IA que Samsung se niega a dejar morir. Ha sido renovado para ir más allá de simples ejecuciones de comandos y operar basado en la comprensión del contexto. Bixby ahora entiende el lenguaje natural lo suficientemente bien como para que puedas decir “Me duelen los ojos después de mirar la pantalla,” y abrirá automáticamente la configuración de brillo. También extrae información en vivo directamente en tu conversación sin sacarte a otra app. Si la gente realmente usará Bixby esta vez, es otra historia.
Más allá de lo agentic, la lista de funciones de IA para el S26 es larga. “Now Brief” es un resumen diario personalizado—que muestra proactivamente tus reservas en restaurantes extraídas del historial de notificaciones, conflictos en tu agenda y niveles de energía, incluso para eventos que nunca añadiste manualmente a un calendario. “Call Screening” identifica llamadas desconocidas y resume su intención antes de que contestes. Una nueva función “Nudge” detecta el contexto en un chat—si alguien pregunta si estás libre este fin de semana, te trae tu calendario dentro del hilo del mensaje en lugar de hacerte cambiar de app. “Photo Assist” te permite describir algo que falta en una foto y Galaxy AI lo añade. La cámara frontal ahora usa un procesador de señal de imagen de IA para selfies más nítidos, mientras que el video nocturno tiene una reducción de grano más limpia. El S26 Ultra graba video en 8K usando el nuevo códec APV, que soporta calidad casi sin pérdida para que las grabaciones sobrevivan a múltiples ediciones. Todo el proceso de la cámara depende en gran medida de la IA a nivel de hardware. En cuanto a la competencia: Apple ha estado prometiendo un Siri más inteligente desde al menos 2024 y todavía no ha entregado las funciones anunciadas. El Pixel 10 de Google tendrá las mismas funciones de Gemini, pero Samsung será el primero en lanzarlas, en volúmenes mucho mayores y en muchos más países. Ningún otro fabricante de teléfonos usa actualmente la palabra “agentic” para describir su producto. Samsung tomó esa etiqueta. Si la tecnología lo merece a largo plazo dependerá de qué tan rápido se expanda la versión beta. Pero lo que realmente destacó el miércoles no fue la IA. Fue una pieza de hardware de pantalla que los conscientes de la privacidad apreciarán: una pantalla de privacidad integrada que te permite controlar si los observadores pueden ver lo que haces en tu teléfono.
Funciona así: una capa de “matriz negra” estrecha físicamente el camino de la luz de cada píxel para que solo la persona que sostiene el teléfono pueda ver lo que hay en la pantalla. Los que ven en ángulo no ven nada, solo negro absoluto, como si la pantalla estuviera apagada. Alguien junto a ti en el metro no ve nada. A diferencia de las películas de privacidad de plástico que existen desde hace años y que hacen que la pantalla sea permanentemente más oscura y más difícil de compartir, esta se puede activar y desactivar. Puedes aplicarla solo a aplicaciones específicas—por ejemplo, banca, que permanece privada, pero tus juegos no—o solo a la barra de notificaciones, para que una persona a tu lado vea la mayor parte de tu pantalla pero no tus mensajes entrantes. El Samsung Galaxy S26 Ultra, que empieza en $1,299, es el único teléfono en el mundo con esta función integrada en el hardware de la pantalla. Las preórdenes abren hoy; el envío comienza el 11 de marzo. El Galaxy S26 estándar empieza en $899, mientras que el Galaxy S26 Plus más grande se venderá por $1,099.