Tecnología
Ramón López de Mántaras, experto en inteligencia artificial: “La IA sola no resolverá absolutamente nada. Serán los humanos” | Tecnología
Published
3 semanas agoon

Ramón López de Mántaras (Sant Vicenç de Castellet, Barcelona, 71 años) es director del Instituto de Investigación de Inteligencia Artificial del Centro Superior de Investigaciones Científicas (CSIC) y uno de los pioneros de la materia en España, ámbito al que se dedica desde hace más de 40 años. La irrupción de ChatGPT y los grandes modelos de lenguaje (LLM, en sus siglas en inglés) no es la primera revolución que ha vivido López de Mántaras: “Empecé en 1975 y ya he visto al menos dos épocas de grandes expectativas y temores, que al final desembocaron en inviernos, travesías del desierto”, dice. Aunque hoy la novedad es sorprendente y un hito increíble, su perspectiva y conocimiento dan más contexto a los titulares de los últimos meses: “Estos modelos de lenguaje son posibles gracias a que tenemos tantos datos en internet, miles de procesadores que trabajan simultáneamente y las mejoras algorítmicas”. Pero queda aún mucho camino para que la inteligencia artificial (IA) se convierta en realmente inteligente.
Pregunta. ¿Por qué nos ha sorprendido tanto ChatGPT?
Respuesta. Nadie preveía que estos modelos de lenguaje, como ChatGPT, fueran tan hábiles al generar un lenguaje cercano y convincente. Esto nos ha sorprendido a todos. Nadie, y he hablado con muchos colegas, se esperaba que en este poco tiempo hubiera esta mejora.
P. ¿Se ha exagerado en algo?
R. ChatGPT en realidad solo hace ver que entiende el lenguaje. Nos resulta muy fácil, también a los propios expertos en IA, caer en la tentación del antropomorfismo. Estoy cansado de ver artículos que dicen, no que “procesa” el lenguaje, sino que lo “entiende”. No es así. Esa es la diferencia con un humano.
P. No es inteligente.
R. Hay un problema de palabras. Las IA son inteligencias muy distintas a las humanas. Es otro motivo de confusión. Los titulares no deberían decir “La IA hace esto” o “decide aquello”. Debería dejarse claro que siempre hay un montón de gente detrás que lo ha hecho posible. La IA es un instrumento formidable, muy sofisticado, pero no tiene iniciativa, no tiene objetivos, no entiende, no tiene un modelo del mundo, no tiene sentido común.
P. ¿Qué le falta?
R. Hay millones de pequeños conocimientos de sentido común que las máquinas no tienen. Nosotros los aprendemos desde pequeños. No tenemos por ejemplo que saber nada de la ley de la gravedad. Un niño pequeño sabe que si suelta algo caerá, sea lo que sea. No lo debes entrenar con millones de objetos distintos cayendo como le ocurre a una IA. Con un puñado de veces ya lo ha aprendido.
“Las calculadoras también hacen cosas que nosotros no sabemos. Pero no decimos que las calculadoras son inteligentes”
P. Pero la IA logra hacer cosas que nosotros no.
R. Las calculadoras también hacen cosas que nosotros no sabemos. Pero no decimos que las calculadoras son inteligentes.
P. ¿La generación de lenguaje lo hace parecer distinto?
R. Sí. Pero quien le da significado a ese lenguaje es el humano al leerlo, la máquina no le otorga ningún significado a lo que genera. ChatGPT no entiende nada.
P. Parece que entiende nuestras peticiones.
R. Ese es el problema. Da esa sensación. Aquí está la gran confusión. No entiende nada, solo calcula la probabilidad de qué palabras seguirán, nada más. No pone siempre la palabra más probable porque si no siempre pondría la misma respuesta a la misma petición. Evalúa miles de palabras que podrían continuar. A veces coge la primera, la segunda o la tercera. Como hay tantas con una probabilidad no nula de continuar, en general acierta y parece coherente y es distinto. Nosotros hemos interactuado con el mundo y los objetos o conceptos que la máquina menciona mediante el significante [las palabras] para nosotros tienen una correspondencia que es el significado. ChatGPT es un modelo de lenguaje, no del mundo. Esto es lo que le separa de la idea de entender el lenguaje.
P. Uno de los logros que más bombo ha recibido es su capacidad de aprobar exámenes.
R. Lo más probable es que esas preguntas y respuestas ya existieran en el conjunto del entrenamiento. Hay como una pequeña trampa. No resuelve un problema razonando, porque su capacidad de razonamiento es nula.
P. Estamos lejos de que se convierta en la llamada IA general, con sentido común, como el célebre Terminator.
R. Ha sido una mejora importante, pero estamos lejos, lejísimos de una IA general. Ni con cien mil millones de parámetros más lo lograrán, no podrá entender nunca el lenguaje. Intrínsecamente, no se puede reparar, nunca podrá entender por cómo está hecho el propio algoritmo. [El premio Turing y jefe de IA en Meta] Yann LeCun dice, y yo estoy de acuerdo, como muchos otros colegas, que primero se ha de modularizar. ChatGPT es un revoltijo, está todo allí. Con el conocimiento factual se equivoca. A mí un colega me escribió un email preguntándome si estaba bien porque ChatGPT le había dicho que yo había muerto. Yo le pregunté por mis diez trabajos principales y eran todos inventados. Debe de haber módulos separados: uno de conocimiento, otro de razonamiento, de planificación, de sentido común. Esto se llama modularizar la arquitectura.
P. ¿La información falsa que genera puede a su vez alimentar futuros modelos?
R. Sí, lo que generan son inputs para otros modelos de lenguaje que a su vez aprenderán. Eso hará bola de nieve. Se multiplicarán las falsedades que generan. De aquí a dos o tres años, ya no habrá una mayoría de cosas veraces en internet. Como ya estaremos contaminados por los resultados de los modelos que tenemos ahora, llegará un momento en que casi todo lo que haya en internet será falso, se comerá la parte humana que hemos hecho hasta ahora.
P. ¿Los modelos no se entrenan con parte del contenido de la versión anterior?
R. No. ChatGPT-5 lo entrenarán desde cero. No cogerán el ChatGPT-4 y lo entrenarán. No es incremental. No pueden retocar fácilmente lo que hay. Ya GPT-4 fue entrenado al margen de los anteriores, 100 millones de dólares les costó. GPT-5 no creo que ni lo entrenen, no creo que veamos un ChatGPT-5. Pero si llegara, esos 100 millones de dólares igual serían 1.000 millones, solo de entrenamiento, aparte del consumo energético que sería brutal. Aunque OpenAI u otra empresa lo haga, el material de entrenamiento no será fiable porque mucho ya habrá sido generado por versiones previas. Todo colapsará.
P. ¿Entonces estos modelos tampoco extinguirán de momento la humanidad?
R. La IA no extinguirá la humanidad. Es hoy una cortina de humo para ocultar problemas que ya hay. El primer problema es que hay cinco o seis empresas que lo controlan todo. Son las más interesadas de que se hable de la posible extinción en lugar de los problemas que han generado de sesgos, de privacidad, del material con el que se han entrenado. Aunque también es cierto que hablar de ellos es buen marketing.
“Las empresas que controlan la IA quieren que se hable de la extinción en lugar de los problemas que genera”
P. Pero sí hay un camino adelante al margen de estos modelos.
R. Estamos en un momento en que iremos mucho más allá de ChatGPT y estos modelos de lenguaje. Superaremos sus limitaciones para razonar y con el sentido común. Nos acercaremos a sistemas que empezarán a entender el lenguaje un poco ya de verdad. Ahora, cero, no entenderán nada.
P. Ya no se llamarán “grandes modelos de lenguaje”.
R. Vamos hacia ahí, pero ya no sé si lo veré yo. Hay otro camino. No serán solo un modelo de lenguaje. No debería llamarse GPT-5. Tendrán un modelo del mundo. Podrá ser entrenado con vídeos donde se vean las relaciones causa-efecto. Igual mira millones de vídeos sobre cómo mover objetos. Son millones de pequeños conocimientos.
P. ¿Los vídeos que hay en YouTube?
R. En YouTube hay mucho, pero no está todo el conocimiento de sentido común ahí grabado. Deberá ser capaz de aprender escuchando, leyendo, observando.
P. ¿Cómo verá? ¿Tendrá ojos?
R. El último paso, la última frontera de un sistema de IA con sentido común, una IA general sofisticada y similar a nuestra inteligencia, deberá tener un cuerpo y sensores: ojos, tacto y orejas. Un futuro robot humanoide que aprenderá del mundo interactuando con él. No mediará una persona ni incluso vídeos.
P. ¿Cómo de posible será algo así?
R. Se está trabajando. Esperemos que sea posible. Antes del robot veremos otros avances. Quizá haya aspectos de cosas que podrá aprender mediante vídeos, quizá en entorno virtual, simulado, se le podrá mostrar cómo caen un objeto o cómo se mueve un objeto con una cuerda. Deberá entrarle información de manera visual.
P. El nivel de complejidad es mucho mayor de lo que conocemos. Para sistemas como ChatGPT hemos necesitado una red neuronal nueva llamada Transformer, una mayor capacidad computacional y muchos datos. ¿Qué más será necesario para estos sistemas?
R. Nuevos algoritmos, completamente distintos. AlphaFold, la IA que predice proteínas, está compuesto de 36 algoritmos. Son piezas de software que colaboran: método de Montecarlo, reinforcement learning, varios tipos de redes neuronales, todo son algoritmos distintos. En ChatGPT no sabemos lo que hay, pero seguro que tiene encoder, decoder, un algoritmo de prestar atención, hay embeddings. Hay un puñado seguro. Un robot como el que digo necesitaría muchos más, capacidad de interpretar lo que ve, lo que siente, todo son algoritmos distintos.
P. Sam Altman, cofundador de OpenAI, o Eric Schmidt, ex jefe ejecutivo de Google, ven a la IA como salvadora en retos científicos hoy imposibles como el cambio climático, el cáncer o la generación de combustible.
R. Tampoco será la IA la que resuelva todo esto. Serán los humanos. La IA sola no resolverá nada, absolutamente nada. No se nos puede dejar solos a nosotros con la IA. La máxima de Mark Zuckerberg de “muévete rápido y rompe cosas” no funciona aquí. Sam Altman también lo ha hecho, en lugar de esperar un par de años o más antes de desplegar ChatGPT.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites

You may like
Tecnología
Los podcasts en Spotify podrán escucharse en español gracias al doblaje automático | Tecnología
Published
2 horas agoon
29 de septiembre de 2023
Este artículo es una parte de la newsletter semanal de Tecnología, que se manda cada viernes. Si quiere apuntarse para recibirla entera, con temas similares, pero más variados y breves, puede hacerlo en este enlace.
Hace literalmente solo dos semanas, El Fary y Núñez Feijóo circularon por los chats de España hablando un inglés admirable con su propia voz. Ahora, hace un par de días, Spotify ha anunciado que episodios completos de podcasts en inglés van a estar disponibles doblados en español, francés, alemán. De momento solo hay unos pocos ejemplos de prueba. El escritor israelí Yuval Noah Harari habla un español latino extremadamente fluido. De repente ya hay, para los interesados, una entrevista de 3 horas en español con Harari. Es una prueba que irá a más. Hay un detalle curioso: los capítulos traducidos al español son entre 10 y 30 minutos más largos que el original. Quizá sea por la inteligencia artificial (IA), quizá por la estructura de la lengua.
La novedad de Spotify ya merecía que nos centráramos en el impacto que tendrá en nuestro futuro lingüístico y en el consumo cultural. Pero en los últimos días Amazon, Meta, OpenAI (y pronto Google) también han anunciado o sugerido cambios extraordinarios en cómo viviremos.
Podcasters – what if I told you could offer your pod to any listener around the world, in their own local language but still keep it in your own voice? That’s the pilot we’re launching @Spotify!
It’s called Voice Translation and using AI, translates podcasts episodes into… pic.twitter.com/kYq0bgxJYq
— Daniel Ek (@eldsjal) September 25, 2023
La IA venía a por nuestros trabajos, pero acabará cambiando parte de nuestras vidas. Estos son solo algunos anuncios de estos días (algunos no son novedades absolutas, sino mejoras): se podrá charlar con ChatGPT, que no será solo un avance respecto a Alexa o Siri, sino que hay quien lo ha probado como terapia (¿o amiga?) para descargar emociones después de un día de trabajo. En el chat de WhatsApp del colegio podrá invocarse la inteligencia artificial para que resuma cientos de mensajes o pedirle un sticker de una bicicleta con las ruedas en forma de corazón y una marmota al manillar para nuestra pareja. Podrá hacerse una foto a las sumas del libro de mates y dará los resultados. Podrán retocarse fotos en el móvil con un nivel hasta ahora reservado a los expertos en Photoshop, y será tan sencillo que lo difícil será encontrarse con fotos originales. También explicará memes o secuencias de imágenes que no son evidentes a ojos humanos. Dentro de WhatsApp podrá tenerse una conversación con preguntas que hasta ahora se las hacíamos a Google: para ello, Meta ha creado incluso chats con famosos que ponen su cara a las IA expertas en recetas, videojuegos, deportes o bromas; parece hasta cursi para esta época.
Son solo algunos ejemplos improvisados. Pero hay más. Meta anunció unas nuevas RayBan con cámaras que podrán mirar un grifo averiado y sugerir cómo repararlo con un vídeo que veremos en las propias gafas. Y, por supuesto, podremos pasear por El Cairo o Shanghai, mirar los carteles de las calles o las cartas de restaurantes y leerlos en español en las gafas. No quedará tanto ya para que esas mismas gafas traduzcan lo que oigan en chino al español en nuestras orejas. Esta semana se ha sabido también que OpenAI está hablando con Jony Ive, célebre colaborador de Steve Jobs en Apple y hoy fuera de la compañía, para crear “el iPhone de la IA”. Y es que el teléfono móvil quizá ya no es el dispositivo con el tamaño y formato más conveniente para este arsenal de opciones nuevas.
Pero ¿y las lenguas?
Tenía preparadas algunas cosillas para comentar el fin de la Torre de Babel con Spotify. Pero ya me parecen hasta secundarias. Es complicado imaginar el ritmo de cambios que traerá la combinación de esas novedades que acabo de enumerar. La cantidad de contenido disponible se va a multiplicar. ¿Por qué no escuchar una guía sobre los rincones de Bangkok o Mindanao escogidos por unos tipos locales muy avispados? ¿Por qué no seguir la NBA escuchando podcasts especializados hechos desde Los Angeles o Milwaukee? ¿Por qué no escuchar, también en nuestra lengua, la última entrevista a cualquier campeón mundial (de ajedrez, de CounterStrike, de minigolf, de bailes de salón)? Claro que en principio no estará todo disponible en todas las lenguas, pero no debería tardar mucho; y el español será una prioridad tras el inglés.
La supresión de las lenguas para consumir información es una novedad brutal. Pero esa no es la única barrera. A los medios globales, por ejemplo, les cuesta funcionar en otra lengua y fuera de su área de influencia cultural. Los grandes medios anglosajones nunca han trasladado su peso a otras lenguas, aunque su influencia en inglés sea enorme. Pero Hollywood o Netflix sí lo han hecho. Es probable que tutoriales y podcasts también logren más influencia. Es dudoso, sin embargo, que el francés Squeezie o el estadounidense Kai Cenat invadan el terreno de Ibai o Auron. Sí puede que haya trasvases en todas direcciones, y más en el futuro, cuando los directos y el chat puedan ser traducidos a la vez en tiempo real y las máquinas pillen expresiones nuevas. Es difícil imaginar el impacto concreto de esto, pero ya no es utopía.
El incremento de traducciones es tan inminente que ya hay cuentas en X que traducen automáticamente las voces de los vídeos al español con el tono de original. Su nivel de traducción es justito aún, pero este miércoles ya vi un clip de Mark Zuckerberg presentar sus nuevas gafas en un español entendible.
El beneficio de aprender una lengua seguirá ahí, imagino. Yo hablo varias y me ha sido increíblemente útil en mi vida. ¿Será a partir de ahora el mejor modo de emplear horas de aprendizaje? No lo sé.
De un rascacielos a docenas
Ya habíamos comentado que ChatGPT parecía ralentizar su implantación. Quizá era solo mi deseo de entender mejor su adopción. Me equivocaba mucho y poco a la vez: ChatGPT sigue siendo un increíble generador de texto y poco más, pero a su alrededor no para de surgir competencia. Es como si ChatGPT fuera el nuevo rascacielos en la ciudad global con sus 44 pisos y en apenas unos meses se hubieran proyectado por todas partes otros rascacielos de 60 plantas.
Amazon, por ejemplo, acaba de invertir 4.000 millones en Anthropic, los creadores de Claude, uno de los principales competidores de ChatGPT. Para entender mejor las derivadas de la IA tenemos este ejemplo que aparece en el anuncio de ese acuerdo: “Lonely Planet, una célebre editorial de viajes, redujo sus costes de generación de itinerarios en casi un 80 por ciento, después de implementar Claude 2; sintetizando sus décadas de contenido de viajes para ofrecer recomendaciones de viajes coherentes y altamente precisas”.
Es imposible que todo esto se convierta en cotidiano a la vez. No somos capaces de asumir tanta novedad. Pero irá ocurriendo. Nadie se resistirá a crear stickers inventados, preguntar paridas en el chat grupal o consultar recetas con lo que hay en la nevera en lugar de recurrir a las habituales de internet con ingredientes raros, o a recurrir a las gafas que nos dicen a qué edificio miramos. Mucha gente estará ahora pensando: “Nada, esto me pilla mayor, no es para mí”. Ya, yo también me resistí a los móviles, pero llega un día en que resistirse es la postura irracional: lo nuevo es demasiado útil, divertido o lo tiene el cuñado.
Las nuevas gafas de Meta costarán menos de 300 dólares y estarán a la venta en octubre. Son las Google Glass, sí. pero mucho más chulas. Grabarán y no lo sabremos. En 2014 había pocas cámaras en la calle y hoy la privacidad en público no existe. Si te hurgas la nariz y eres famoso (más en el Congreso) te pueden grabar. Si te caes o chocas o te peleas, es indudable que vas a llegar a internet.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
Tecnología
¿Borroso, con libros, en la cocina? El fondo que se muestra en Zoom es el nuevo traje de negocios | Tecnología
Published
9 horas agoon
29 de septiembre de 2023
Desde que las reuniones presenciales pasaron a ser telemáticas, al principio de la pandemia, estas se han convertido en una nueva rutina profesional: más de 200 millones de personas se reunieron al día en Zoom durante el mes de marzo de 2020. La primera impresión que genera una persona en esos encuentros digitales no es la misma que la que de una cita presencial: el fondo de una videollamada, la expresión facial y el género son factores que influyen en la percepción de cuanto de fiable y competente puede ser alguien a través de la pantalla, según explica un estudio que acaba de publicar la revista PLOS ONE.
“Las primeras impresiones se ven afectadas de forma significativa por factores visuales contextuales, por lo que el fondo del vídeo podría influir de manera diferencial en las evaluaciones de las primeras impresiones en comparación con las reuniones en persona”, revela el estudio. Por lo tanto, si la apariencia virtual en una reunión por Zoom o Teams se considera “más importante que la vestimenta”, el fondo de una videollamada se caracteriza por ser el nuevo traje de negocios. En las entrevistas de trabajo, un 97% de solicitantes de empleo se consideran más competentes por acudir vestidos de manera formal y transmitir así capacidad, madurez y éxito.
En el estudio, realizado por investigadores de la Universidad de Durham (Reino Unido), las 167 personas participantes valoraron la percepción de confianza y competencia de sus compañeros, teniendo en cuenta algunas variables. Durante las videollamadas ficticias, pudieron observar sus rostros masculinos y femeninos con expresiones felices y neutras, superpuestos sobre seis fondos virtuales: unas plantas de interior, una estantería de libros, un salón, una versión borrosa de un salón, una pared en blanco y un fondo novedoso (por ejemplo, una imagen descargada de internet).
Los rostros que contaban con una estantería con libros en el fondo ganaron más puntos de confianza y competencia. Esto se debe a la relación positiva que hay entre la alfabetización y la inteligencia, y la lectura y el rendimiento económico, según los autores del estudio. José Antonio Tamayo, psicólogo sanitario de Activa Psicología, invoca el “efecto halo” para tratar de explicar este resultado: “Es la tendencia a asociar en nuestros juicios sobre otras personas, lugares, objetos o situaciones, ciertas características positivas con otras también positivas, sin que exista un fundamento empírico que demuestre tal relación. En el caso de la decoración, aunque sea virtual, influye en la formación de las primeras impresiones y podría ser que los libros se asocien a cultura e inteligencia”.
Los fondos caseros también despiertan cierta curiosidad en las redes. El usuario de Twitter Room Rater (evaluador de habitaciones, en inglés), con más de 387.000 seguidores, se dedica a puntuar del 1 al 10 los fondos virtuales de los expertos que aparecen en las videollamadas de los canales de televisión estadounidense. En sus publicaciones, critica sarcásticamente los objetos que aparecen en los vídeos. Un ejemplo de ello es el comentario sobre la videollamada de Leah Litman, profesora de Derecho de la Universidad de Michigan (EE UU) con la cadena MSNBC: “Buen montaje de profesor de derecho. Los carteles de viajes son arte. Osito de peluche. Infracción menor con la bolsa de tela. 9/10″.
Los rostros con plantas en el fondo fueron calificados dignos de confianza por la conexión de los seres humanos con el entorno natural. Pepe Cosín, decano del Colegio de Diseñadores de Interior de la Comunidad Valenciana (CDICV) respalda que un espacio con plantas es más fiable, ya que “las plantas nos conectan con la naturaleza, y nos transmiten serenidad y confianza”.
Ver la casa de los demás en un contexto laboral se considera “poco profesional”, según el estudio, y por eso los participantes puntuaron más bajo el fondo en el que aparecía un salón. Las videoconferencias grabadas desde un dormitorio también se han considerado menos profesionales que un entorno de oficina en casa. Tamayo lo compara con el efecto que produciría ir al trabajo con ropa de estar por casa. Los fondos borrosos, novedosos o en blanco tampoco tuvieron éxito por ser considerados “poco fiable”.
Las caras de mujeres, más fiables
Las expresiones faciales, como parte del lenguaje no verbal, son importantes en las videollamadas por transmitir información valiosa sobre los sentimientos e intenciones de los demás, tal y como revela el estudio. Una persona contenta tiene más probabilidades de dar una buena impresión y de ser más fiable. Sonreír indica confianza y autoestima, y, por lo tanto, revela una mayor capacidad de acción y competencia.
Los rostros de mujeres, independientemente del fondo que utilicen, se perciben en el estudio como más fiables y más competentes. Además, la confianza que desprende la mujer contrarresta los resultados negativos de un fondo casero o borroso. Sin embargo, no pasa igual con los hombres: los juicios de confianza y competencia no tienen efectos sobre el fondo y, por lo tanto, deben ser más conscientes de eso.
Como conclusión, para dar una mejor impresión al interlocutor, el estudio recomienda poner en las videoconferencias una estantería de libros o plantas de fondo. También sugiere evitar los fondos caseros (aunque sean borrosos) y los artificiales, y tener una actitud sonriente durante las videollamadas. En 2024, cuando las restricciones de la covid ya solo sean un recuerdo lejano, se prevé que el 75% de las reuniones de negocios se seguirán haciendo por videoconferencia: para salir airoso, al menos visualmente, será mejor contar detrás de la silla con una biblioteca y un cactus.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tecnología
El teléfono inteligente que quieren los amantes de la fotografía | Tecnología
Published
20 horas agoon
28 de septiembre de 2023
Si retrocediéramos cuatro décadas en el tiempo y alguien nos asegurara que los teléfonos móviles se volverían esenciales en nuestra vida, probablemente lo habríamos tildado de loco. Sin embargo, en la actualidad, casi el 90% de la población mundial posee al menos un smartphone, según el portal estadístico Statista. En España, el 97% de los ciudadanos cuenta con uno de estos dispositivos inteligentes, tal y como revela el Informe Mobile elaborado por la compañía de marketing Distrendia.
Hoy por hoy, los teléfonos móviles son cuidadas obras de ingeniería tecnológica. Su versatilidad y capacidad para simplificar el día a día no conocen límites. Incluso han relegado al olvido otros aparatos en constante evolución, como las cámaras fotográficas. Pero esto no significa que las personas hayan dejado de tomar fotos, al contrario: han optado por hacerlo de otra manera. De hecho, el 60% de los usuarios de smartphone valoran las características de la cámara antes de decidirse a comprarlo, según datos de Statista.
Xiaomi 13T Series es la elección ideal para quienes no quieren comprometer ni la calidad fotográfica ni la tecnología móvil de vanguardia. Está equipado con una impresionante cámara Leica profesional diseñada exprofeso, que garantiza la captura de imágenes excepcionales. Ya no es necesario cargar con una máquina al hombro: con Xiaomi, cada instantánea se convierte en una auténtica obra maestra.
Experiencia fotográfica profesional de la mano de Leica
La elección de un aliado para certificar y desarrollar las lentes de un smartphone es de suma importancia. Xiaomi ha dado un paso al frente al asociarse con Leica, referente en el mundo de la fotografía desde hace más de un siglo. Es la primera vez que la serie T de Xiaomi integra la experiencia y el inconfundible sello distintivo del icónico fabricante de ópticas alemán. Las inmortales fotos de Alfred Eisenstaedt (El beso del marine en Times Square), Robert Capa (milicianos en la guerra civil española), y muchos otros iconos de Henri Carter-Bresson, Robert Doisneau o Leni Riefenstahl están hechos con Leica. Todas las fotos en público de la longeva reina Isabel II de Inglaterra, las hizo con su Leica de funda de cuero.
Las inmortales fotos de Alfred Eisenstaedt (’El beso del marine’ en Times Square), Robert Capa (milicianos en la guerra civil española), y muchos otros iconos de Henri Carter-Bresson, Robert Doisneau o Leni Riefenstahl están hechos con la óptica de una Leica
Gracias a esta colaboración, todas las capacidades fotográficas y de vídeo de Xiaomi 13T Series se basan en un conjunto de lentes ópticas sobresalientes. El sensor principal es un gran angular de 50 MP con una distancia focal equivalente a 24 mm y una lente asférica de 7 píxeles. ¿Qué significa esto? Que está diseñada para captar la máxima luz posible. Esta lente permite tomar imágenes nítidas y detalladas en diversas condiciones de luz, ya sea contraluz, con nieve refractante, bajo luz directa o en las vibrantes escenas urbanas nocturnas.
Además, Xiaomi 13T Series cuenta con un teleobjetivo de 50 MP con una distancia focal equivalente a 50 mm, óptima para capturar esos momentos más cercanos y personales. Para los amantes las tomas panorámicas, incluye una cámara ultra gran angular de 12 MP con una distancia focal de 15 mm. La sutileza de un insecto posado sobre una flor, la vista de 180º de ese valle tan impresionante desde el mirador, el movimiento de un partido de fútbol de los niños o el detalle de una manchita en la piel para enviar por correo electrónico al dermatólogo: todo es posible con la serie Xiaomi 13T.
Fotografía a medida
Xiaomi 13T Series presenta dos estilos fotográficos originales de Leica, Leica Authentic Look y Leica Vibrant Look. Ambos ajustan automáticamente las imágenes en función de las condiciones de iluminación y el entorno de disparo. No importa dónde nos encontremos o cuándo queramos capturar ese momento especial, ya que los resultados serán siempre lo más próximos a los de un profesional.
Pero eso no es todo. Xiaomi 13T Series también ofrece la libertad de expresar toda la creatividad en el modo Pro. Esta función, que hizo su debut en el Xiaomi 13 Ultra, permite ajustar el tono, la tonalidad y la textura de las fotos. Esto no solo preserva los detalles y colores durante el procesamiento de la imagen, sino que también permite crear y guardar preajustes para personalizar los propios estilos fotográficos.
Seis filtros Leica, incluyendo los nuevos Leica Sepia y Leica Blue, completan el despliegue de tecnología aplicada a la fotografía. Estos últimos están diseñados para recrear el encanto clásico de las fotos, capturando la esencia estética legendaria de Leica. Aquellos a los que les gusta dar un toque vintage a los recuerdos están de enhorabuena: el realismo anida en su teléfono.
Vídeo con calidad cinematográfica
Cuando se trata de conservar imágenes en movimiento, Xiaomi 13T Series está un paso por delante. Las cámaras traseras permiten grabar vídeos en 4K, sin importar la distancia focal. ¿Es necesario una edición rápida? La aplicación Xiaomi Gallery brinda la capacidad de añadir subtítulos y bandas sonoras adicionales, y editarlas por pistas separadas. Crear vídeos cortos para subir a cualquier plataforma o a un blog personal no requiere casi ningún esfuerzo.
Por su parte, la versión Xiaomi 13T Pro es compatible con la grabación de vídeo 8K, lo que equivale a capturar imágenes aún más nítidas y deslumbrantes, con unas características que rivaliza con la de las producciones cinematográficas. Además, aprovechando la cámara gran angular de 50 MP, es posible grabar al tiempo que se camina; es una funcionalidad perfecta para crear videoblog o guardar recuerdos animados de los viajes, cada vez más recurrente también al mostrar a los contactos el interior de un apartamento o un hotel.
La pantalla CrystalRes de 6.67 pulgadas AMOLED no solo mejora la experiencia visual y de juego, sino que ofrece una asombrosa gama de colores de 68 mil millones y es compatible con HDR10+. Esta tecnología ajusta el brillo y el contraste en cada fotograma, asegurando una experiencia de visualización precisa y detallada
Diseño elegante y rendimiento estelar
Xiaomi 13T Series mantiene la refinada estética de la serie 13 del fabricante, apostando por un diseño minimalista y sofisticado. Su pantalla CrystalRes de 6.67 pulgadas AMOLED no solo mejora la experiencia visual y de juego, sino que ofrece una asombrosa gama de colores de 68 mil millones y es compatible con HDR10+. Esta tecnología ajusta el brillo y el contraste en cada fotograma, asegurando una experiencia de visualización precisa y detallada.
La serie 13T de Xiaomi está disponible en tres opciones de color: azul alpino, verde pradera y negro. El acabado en azul alpino se complementa con una tapa trasera de cuero vegano Xiaomi BioComfort, que tiene una textura suave, lo que aporta una apariencia premium y un agarre óptimo. Por otro lado, los modelos en verde y negro tienen cristal brillante en la parte posterior de la carcasa, un acabado que da un aspecto lujoso al dispositivo. Asimismo, Xiaomi 13T Series dispone de certificación IP68, lo que garantiza resistencia al agua y al polvo.

Los podcasts en Spotify podrán escucharse en español gracias al doblaje automático | Tecnología

Izzy’s Lost and Found Drawer on Love Is Blind Is Kind of Icky

What Is Milton’s Job? His Résumé Is Wild

Jeremy Clarkson finalmente se reúne con Richard Hammond y James May para filmar el Grand Tour

¿Qué significa Intercalar al imprimir? Por qué es útil

Los recién casados Sofia Richie y Elliot Grainge hacen su debut en la alfombra roja como pareja casada
Tendencias
-
Espectaculos5 meses ago
Jeremy Clarkson finalmente se reúne con Richard Hammond y James May para filmar el Grand Tour
-
Tendencias5 meses ago
¿Qué significa Intercalar al imprimir? Por qué es útil
-
Espectaculos5 meses ago
Los recién casados Sofia Richie y Elliot Grainge hacen su debut en la alfombra roja como pareja casada
-
Tendencias5 meses ago
TikToker cree que su monitor de bebé fue pirateado
-
Tendencias7 meses ago
¿Qué significa Side-Eye en TikTok? Detalles sobre la tendencia viral
-
Espectaculos1 mes ago
Kanye West’s wife Bianca Censori faces ‘public indecency arrest’ threat | Celebrity News | Showbiz & TV
-
Espectaculos4 meses ago
La estrella de 1000-Lb Sisters, Tammy Slaton, muestra una pérdida de peso dramática sin soporte de oxígeno
-
Espectaculos4 meses ago
Vanessa Hudgens es una visión en negro mientras llega a la alfombra roja en el estreno de Downtown Oil