Atajo de Navegación:

Entrevista a Javier Juárez Mojica, Comisionado del IFT, en Así las cosas con Gabriela Warkentin sobre Foro Ética de los sistemas y dispositivos inteligentes | Instituto Federal de Telecomunicacioness


Entrevista a Javier Juárez Mojica, Comisionado del IFT, en Así las cosas con Gabriela Warkentin sobre Foro Ética de los sistemas y dispositivos inteligentes

Gabriela Warkentin (GW), conductora: Cómo es que brincó "Pizu", que normalmente estaba por ahí de las 9:15 y que Javier Risco sólo le da tres minutos para que hable. 

Emilio Saldaña "Pizu" (ES), colaborador: Siempre, es cierto. 

GW: Siempre, ¿no? 

ES: Yo hablo dos, él uno. 

GW: Exacto y yo siempre diciéndole: "Risco, deja que hable 'Pizu', que no sé qué", y no, no te deja hablar. A las 8:30 de la mañana, ¿cómo estás, querido Pizu? 

ES: Desmañanado, quiero decirles. 

GW: ¡Cálmate! Desmañanado. 

ES: Pero muy contento como todos los jueves. Además hoy con invitados de honor... 

GW: Así es. 

ES: ... porque ahorita les platicamos, pero no, muy contento de estar aquí con ustedes. 

GW: Oye, y hay que decir que llevamos ya dos semanas -bueno, con ésta- ya dos semanas con temas importantes, ¿no? 

ES: Sí. 

GW: Recuerdas la semana pasada que contigo estuvimos también en una sección más larga también hablando con Yolanda Martínez... 

ES: Correcto. 

GW: ... de la estrategia digital nacional, de lo de las actas de nacimiento, que la verdad es que fue muy aplaudida... 

ES: Sí. 

GW: ... esa conversación y, bueno, la cantidad de dudas que le brotaron a la gente sobre las actas de nacimiento que ya se pueden sacar de manera digital. 

ES: Que además han estado respondiendo las cuestiones y las preguntas... 

GW: Sí, sí, sí. 

ES: ... de los usuarios, cosa que les agradecemos mucho en gob.mx que estén haciendo. 

GW: Así es, y hacemos un llamado a que si siguen teniendo dudas o si su acta de nacimiento no salió bien o los datos están al revés o como sea, que sigan escribiendo y que te "arroben" también a ti, "Pizu"... 

ES: Por favor. 

GW: ... para que así podamos darle salida. 

ES: Con todo gusto. 

GW: Pero bueno, ¿por qué estamos hablando ahorita con “Pizu”? Hace ratito fue buena coincidencia... 

ES: Sí. 

GW: ... en la sección de Enrique Quintana -que tenemos todos los días aquí a las 7:30-, Enrique Quintana hacía referencia a lo que había dicho el mero, mero de Google allá en Davos, ya saben que en estos momentos se está llevando a cabo el Foro Económico Mundial de Davos, que por cierto hace rato veíamos... 

ES: A Donald Trump llegar. 

GW: ... a Donald Trump llegar, bajándose de su helicóptero así tru, tru, tru, ¿no? Pero bueno, hablábamos de inteligencia artificial, Risco. 

JR: Sí, decía el director, el CEO de Google que la inteligencia artificial va a tener una trascendencia en los próximos años mucho mayor que el uso incluso de la electricidad... 

GW: Y del fuego decía incluso. 

JR: ... y del fuego. Dice: "Va a formar parte de nuestras vidas todo el tiempo ya", o sea, todo el tiempo, mucho más que la electricidad. 

Entonces, bueno, partiendo de esa premisa, querido Emilio Saldaña "Pizu", pues platícanos un poco de un foro que acaba de suceder y de hacia dónde se dirige este debate. 

ES: Que es además súper interesante, y los venía escuchando, además. Y sí, coincido con muchas de las cosas que se escucharon. 

Se llevó a cabo el primer Foro de Ética de los Sistemas y Dispositivos Inteligentes, esto fue convocado por el Instituto Federal de Telecomunicaciones y trataron los temas alrededor de cuáles son las agendas y los retos que hay en términos no sólo de inteligencia artificial, sino de todo lo que rodea a la integración de la inteligencia artificial en la vida cotidiana, en los trabajos, en la producción de nuevas tecnologías. 

Y hoy para poder platicar acerca de los resultados que tuvieron en este foro, nos acompaña Javier Juárez Mojica, él es el comisionado del Instituto Federal de Telecomunicaciones, a quien además le agradecemos mucho el aceptar nuestra invitación y platicar de los resultados que tuvieron porque el foro fue espectacularmente interesante. 

Muchas gracias, comisionado. 

GW: Bienvenido, bienvenido, comisionado, qué gusto tenerte por acá, en verdad, buenos días. 

Javier Juárez Mojica (JJM), comisionado del Instituto Federal de Telecomunicaciones: Buenos días, Gabriela, Javier. 

JR: Gracias. 

JJM: "Pizu", gracias por la invitación. 

GW: Tú eres un hombre mucho más decente que los tres que estamos aquí, él viene muy bien vestidito, saluda muy amable, no como nosotros que somos unos... 

JR: No como "Pizu" que trae unas ropas que dices: "no lo puedo creer". 

GW: Sí, que trae una ropa vergonzosa. 

ES: Ahorita les comparto mi outfit de la mañana. 

GW: O yo que pego unos alaridos cada hora, aquí el comisionado no. 

A ver comisionado, cuéntanos, primero por qué se les ocurrió hacer este foro "Ética de los dispositivos..." ¿Cómo era?, el nombre completo es más largo, es que yo nada más tengo aquí el de dispositivos inteligentes. 

ES: "Ética de los sistemas y dispositivos inteligentes". 

JJM: Ese es el nombre completo, bueno, si le agregamos Primer Foro de "Ética de los sistemas y dispositivos inteligentes". 

ES: Y además hay que hacerlo, sí señor. Sí, no, adelante, adelante. 

GW: Adelante, adelante. 

JJM: Mira, la idea surge porque este debate se está realizando en todo el mundo. En todo el mundo están viendo si hay que hacer algo para programar los vehículos autónomos, como tendrían que tomar ciertas decisiones, quien maneja la información. 

La información al final del día es la fuente de información para generar inteligencia. 

O sea, ustedes no serían tan inteligentes si no hubieran leído todos esos libros, si no hubieran estudiado, o sea... 

GW: Ay, y yo que pensé que nací inteligente. 

ES: Que era nato, hombre. 

JJM: No serían tan. 

GW: Y yo que pensé que desde la cuna ya estaba yo diciendo cosas brillantes. 

JJM: No, es muy importante tener información para que los robots, para que esos algoritmos, esa inteligencia artificial aprenda. 

De hecho, por eso estructuramos de esa manera el foro. Primera mesa, el Big Data, la información; cómo, quién tiene acceso a esa información, quién es el dueño de la información. 

Sería un recurso esencial al que todo mundo debería, todos los start-ups deberían de tener acceso para que puedan desarrollar sus algoritmos con inteligencia artificial, es el primer, la primera mesa fue del Big Data. 

La segunda es ¿legalmente qué es un robot? No sé si escucharon, pero por ejemplo en Arabia Saudita le dieron ciudadanía y pasaporte a Sofía. 

ES: Sí, correcto. 

GW: Ah, sí, claro, a una robot. 

JJM: Y una pregunta que yo vi muy interesante en Twitter es: "¿Y ahora que viene a México -viene en abril, viene a Guadalajara- le vamos a sellar el pasaporte o una orden de importación?" 

GW: Ah, eso está buenísimo. 

JR: Claro, claro. 

ES: Debería ser pasaporte, ¿no?, o sea, el debate sería debería de ser pasaporte. 

JJM: Lo que pasa es que es ciudadana allá. 

GW: Pero nosotros aquí no hemos reconocido a los robots como ciudadanos. 

ES: ¿Por qué "ño"? ¿Por qué son así hombre? 

GW: ¿Por qué somos así en México? De verdad ya reconozcan a los robots. 

JJM: Pero vean cuántas opiniones. 

ES: Claro. 

GW: Pero es un gran debate, claro, ¿va a venir? ¿Va a venir? 

JJM: Va a venir, viene a Guadalajara a un evento a principios de abril. 

GW: ¿Y no la podemos traer? Me encantaría conocer... 

JR: Y ya que se quede todos los jueves, para dar la sección de tecnología con el "Pizu", ¿no?, que esté con el "Pizu". 

ES: Si hay que sacrificarse e ir a Jalisco, yo voy. 

GW: pero es un gran debate, es un gran debate de si le sellan el pasaporte o si es una, ¿cómo decías? 

JJM: Una solicitud de importación. 

GW: De importación, claro. 

JJM: Como cuando importas una máquina. 

GW: Sí, el ingreso de un equipamiento como tal. 

JJM: De un equipamiento, exactamente. 

GW: OK, eso está bueno. 

JJM: Ahora, independientemente de la parte legal, como que hay que reflexionar, hay debate. 

ES: Claro. 

JJM: Y la tercera mesa, la última es exactamente la de ¿y la ética en estos dispositivos, entes inteligentes? ¿Cómo hacemos en la toma de decisiones? 

Y platicaba con "Pizu” un ejemplo al principio, antes de entrar al aire. Hicieron una investigación donde dices: "Oye, hay dos situaciones -el resultado va a ser indeseable, en cualquier caso-, se sigue de frente un vehículo y atropella a diez peatones, cinco peatones, los que sean o da un viro y pone en riesgo a la persona que va ahí -no digo conductor porque es un vehículo autónomo-, pone en riesgo al pasajero, ¿cuál debería de ser la decisión del robot?" 

Hacen una encuesta, "está clarísimo, pues que dé un viro y nada más comprometes a una persona y no a los diez peatones que van a pasar por ahí". 

ES: Correcto. 

JJM: No hay de otra, o sea, es el resultado deseable, el de menos daño. Pero cuando a esas mismas personas después se le preguntas: "Oye, y un auto que está programado así, ¿lo comprarías?" "Espérame, yo creo que mejor no lo compro, yo lo que quiero es que me proteja a mí, por eso le estoy invirtiendo" la gente que invierte en un vehículo caro, entre tantas cosas que evalúa es qué tan seguro es. Entonces, hay un debate, ¿deberíamos de regular se debería de hacer algo? 

En Alemania ya emitieron un primer código de ética para los vehículos autónomos. 

ES: OK. 

JJM: No se metieron a este tipo de detalles, sino más bien a principios, ¿qué dijeron?, el principio es la protección de la vida y en esa protección de la vida no debes de fijarte si es de qué color, que religión, que edad, que género, o sea, no te fijes en esas cosas, protección de la vida, principio rector, sin meter todos los detalles, ¿no? 

Al final del día el tema está ahí, cada vez va a tomar más fuerza, impacto en las profesiones, mercado laboral, desplazamiento y hay que ir generando agenda, Gabriela. 

JR: Porque además comisionado, comentábamos Gaby en este ejemplo, que si entonces lo traemos a las culturas locales, imaginen que este vehículo tuviera un botón que dijera, de que lloren en su casa a que lloren en la mía, ¿qué botón preferiríamos nosotros apretar?, el dilema es... 

ES: Lo imaginé perfecto el botón a que lloren en la mía, en el tablero. 

JR: ¿Está usted de acuerdo?, y la pregunta además que se hacían en el foro muy interesante, es posible enseñarle ética a los sistemas inteligentes, es decir, que podemos considerar la ética como parte de los insumos, que la inteligencia artificial debe considerar para reaccionar correctamente o no. 

ES: Ya me superó, no esto es buenísimo, verdad. 

JR: Jamás pensé llegar al debate de, ósea decía, bueno está alejado, eso lo vamos a ver en algún libro de Philip K. Dick, que en 2300 o en el año 3000, pero no, que estemos hablando en 2018 de la ética en los sistemas, pues vaya es algo que ya llegó. 

A ver, te preguntaría Javier, hablamos de lo que sucede en Alemania, hablamos de lo que sucede también en Arabia Saudita, ¿cómo está México? ¿Cómo está México en el tema de la regulación, por ejemplo, de estos sistemas? ¿Hay leyes que lo sustenten? ¿Hay algunos reglamentos para el desarrollo de este tipo de tecnología? 

JJM: No conozco yo algo específico, Risco, pero eso no quiere decir necesariamente que estemos mal. 

De hecho, estaba leyendo un artículo y una de las potencias que están creciendo en inteligencia artificial es China y le están apostando durísimo a la inteligencia artificial, pero uno de los factores claves que ellos señalaban en ese artículo que leía es precisamente porque hay libertad, no hay restricciones. 

Imagina tú que nosotros tuviéramos ahorita una regulación, una legislación que dice a ver, los principios éticos para un vehículo autónomo es éste, pues a lo mejor de entrada estamos diciendo que sólo se pueden desarrollar productos que no necesariamente van a ser adquiridos por el mercado. 

GW: Claro, sí. 

JJM: Yo creo que más que nada, más que pensar que ahorita ya regulamos, establecemos alguna ley, hay que estar atentos a lo que pasa, para que ahora sí como decimos, también no nos agarren con los dedos en la puerta, estar con los temas muy estudiados y cuando se tenga, que se ve ya consuma datos más duros, que se tiene que hacer algo, estar listos para hacer eso que se requiera. 

GW: Sí, "Pizu" ibas a decir algo de esto. 

ES: La importancia que tiene en este caso y que coincidiendo con lo que comenta Javier, que ya nos alcanzó un futuro que pensábamos que iba a llegar en muchos más tiempo, la importancia que tiene justamente, cómo integramos en la vida cotidiana la toma de decisiones y cuál puede ser en un momento dado una legislación que le esté acompañando. 

Por ejemplo, y algo que comenta el doctor Erick Huesca a quien además le mandamos un saludo y un abrazo muy cariñoso y que junto con el Funco y el IFT fueron los que llevaron a cabo esta convocatoria, pero él comenta, por ejemplo, que las leyes de Asimov, que seguramente todos han escuchado ustedes las leyes de la robótica, un robot no debe hacerle daño a quien lo crea, cualquier decisión que toma un robot debe considerar que el principio inicial que es preservar la vida... Y un robot no puede ser utilizado precisamente para generarle daño a otros humanos. 

Estos dilemas que hoy Asimov había puesto o había planteado, no están integrados en la realidad cotidiana del análisis de este tema y ya no solamente el dilema en el ejemplo es, por ejemplo, el del coche, aquí hablamos ya incluso de armas autónomas, armas inteligentes, que hoy se peinó usted muy parecido al maleante y el dron se nos confundió, ¿no? 

JR: No, es que ya es un capítulo de Black Mirror. 

ES: Claro que lo es porque las preguntas, Javier, son buenísimas, en un algoritmo que toma las decisiones en términos de inteligencia artificial que estábamos comentando, quién es el culpable a la hora de la toma de decisión aparentemente equivocada, quien lo programo o quien educó al algoritmo, hablamos de inteligencia artificial, tú ya le diste ciertos patrones para que tome decisiones y dentro de esos patrones la decisión que toma no es la que mejor te conviene a ti. 

GW: Oye, muchas reacciones, es que es un tema que prende, por supuesto muchas reacciones aquí en nuestras redes sociales, León Felipe Sánchez que le mandamos un abrazo, dice: "Cuando quieran hablamos de leyes y tecnología" y sí, sin duda hay ahí todo un campo, ¿no?, hay un campo ahí que explorar, pero me gusta lo que está diciendo el comisionado, es decir, sí, pero también necesitamos explorar y en el explorar es también vas como conociendo cuáles son los límites o dónde querríamos nosotros poner los límites. 

Nos dice aquí el arquitecto CCM: "Se está cayendo la película del hombre bicentenario" y estas cosas generan reacciones de todo tipo, ¿no?, desde reacciones de decir, no, así no, así como Javier Risco, que así como lo ven ustedes joven, pero es de corazón más adulto, que está enojado con el sistema de asistencia de video en el futbol. 

JR: En el futbol, desde el VAR. 

GW: Porque dice que no, eso le quita la esencia al futbol, bueno, hay mucha gente que dice, no, no, esto es como del demonio, ¿no?, pero justamente lo tenemos que discutir. 

JR: A ver, es que el otro día, a ver compre uno de los... Un amigo que es un geek total, me dijo eres un anciano, no puedo creer que hayas hecho eso, compre este asesor de Google me parece, que es como este aparato. 

GW: Google home. 

JR: Sí, en el cual le dices, no pues pon tal canción, tal cosa. 

ES. Cuál es el clima. 

JR: Y se me ocurrió por única vez en mi vida leer los avisos de privacidad, dije no. 

ES: Sigues aterrado. 

JR: No, pero por qué, oiga. 

ES: Pero por qué, oiga. 

JR: ¿Deseas, permites a Google que entre a tu celular y revise todo?, no. 

ES: No, ¿por qué?. 

JR: Estás de acuerdo con que el micrófono permanezca encendido todo el tiempo, no, por qué, le dije a un amigo, oye, pues te lo vendo, te lo vendo para que tú. 

GW: (Inaudible) en el roperazo, a ver comisionado, estamos hablando con Javier Juárez, comisionado del Instituto Federal de Telecomunicaciones, cuáles sientes que fueron, entiendo que este es el primer foro, como ya nos lo decías y obviamente entiendo que le dan seguimiento, pero ¿con qué te quedas?, primero ¿como quiénes estuvieron de invitados y con qué te quedas después de este primer foro?. 

JJM: Mira, sí, tuvimos de hecho dos comisionados, Arturo Robles, Mario Fromow, ellos fueron moderadores de mesas, además de Salomón Padilla, que es un abogado que conoce del sector, ellos fueron los moderadores, en las mesas estuvo gente de la UNAM, del área de filosofía incluso, del área de filosofía, estuvo de la UDG, de Infotec, tuvimos variadito. 

Lo que se trataba es de ver todas las posturas, hay varias conclusiones interesantes, no le diría propiamente conclusiones, pero sí que nos llevamos para reflexionar, daba el ejemplo Javier del tema de los datos personales, decía una de las panelistas en la primera mesa que fue esa del Big Data de la información, a la mejor ya no debemos ni siquiera hablar de datos personales, debemos de hablar de datos de vida, de cuáles son nuestros patrones de consumo, que nos gusta de música, que publicamos en redes sociales que consumimos, de todos los datos de vida. 

Y dice, a la mejor yo no estaría necesariamente en contra de que eso se compartiera, la cuestión es que hoy por hoy ni siquiera ser qué aplicación tiene qué. 

JR: Quién tiene qué de mis datos. 

JJ: No, integrado, porque no, y ella daba un ejemplo súper interesante, dice por qué no tener yo mi gestor de datos de vida y esos datos de vida de hecho valen, porque en base a eso se puede ver qué está demandando el mercado, qué se requiere y habrá empresas que tomen decisiones y que se monetice, que hay una empresa que los puede vender y a mí al final del año me dice: "Oye, pues por los datos te tocaron cien dólares". 

Incluso yo tomo decisiones de si esa me da rentabilidad o no, decía como el Afore, tú puedes decir, si esa te funcionó en el año o te cambias, incluso puede haber portabilidad, dices, estos datos ya no me estás generando. 

JR: Dime. 

JJM: No me genera el dinero que yo quiero, me voy con otro. 

GW: Sí. 

JJM: Entonces por qué no. 

JR: Y cuánto valen los datos de Pizu, los de Warkentin, los tuyos. 

ES: Claro. 

JR: Habrá que también... 

ES: Y quién logró la mejor monetización, ¿no?, o sea, cuáles de las empresas que hoy sabemos que tienen nuestros datos harían el mejor aprovechamiento. 

JR: Nos escribe, profesor Doval nos escribe a través de Twiiter, dice: "El asunto de la ética no sólo depende de la inteligencia, sino de la voluntad, quizá haya inteligencia artificial, ¿habrá voluntad artificial?" 

GW: Es también una gran pregunta. 

ES: Qué buena pregunta. 

GW: Es una gran pregunta. 

JR: Nos dice María Martínez y coincido: "Imagínense entonces cuando tengan que regular inteligencia artificial en medicina, en expediente electrónico, en estudios de pacientes, cirugía robótica, por supuesto todo esto acompañado con cuestiones de valores éticos". 

GW: Oye, y nos hace una recomendación nuestro querido Charles Duverger, le mandamos un abrazo y un beso dice: "Por favor si no lo han hecho para el tema de ética e inteligencia artificial tienen que leer 'Homo Deus', de Yuval Noah Harari", que es este hombre que escribió también "Sapiens", que es un librazo también, que yo también se los recomiendo y sí, yo estoy metida ahorita, voy como a la mitad de este de "Homo Deus" y vale la pena porque es como la historia del futuro, ¿no? 

ES: Yo leí "Sapiens" y me pareció maravilloso, no he leído Deus. 

GW: Pero este con "Homo Deus" se va, es la historia del futuro, la verdad sí se los recomiendo. 

ES: Sería nuestra tarea inmediata, no, esa lectura, les parece buena idea. 

GW: Sí, para el próximo jueves, ah, verdad. 

JR: Sí, lo comentamos al aire. 

GW: Y luego, luego empiezo a decir, ¿verdad? 

JR: Y comenta Israel Rosas también algo muy interesante: "Con la inteligencia artificial, como con Internet, dada todo lo que están comentando en la mesa, sí, pero, que haya condiciones o que se preserven condiciones para la innovación sin pedir permiso" y eso es también muy interesante, porque hoy puedo tener acceso a sets de datos para generar cierto tipo de funciones, pero sí hoy hablamos de inteligencia artificial y de un terreno en el cual los datos estuvieran como se plantea, mucho más universales y mucho menos acotados, cómo haríamos entonces para que al mismo estén correctamente regulados, correctamente protegidos, pero yo no tenga además que pedir permiso para innovar, ¿no? 

GW: Porque es cierto lo que decías, comisionado, del tema de las leyes, por ejemplo, decías, bueno, sí, igual no es tan mala noticia que no las tengamos todavía, justo porque estamos en este proceso de experimentación y de creación, pero también sobre en el tema de inteligencia artificial, decías que tuvieron una filosofa, por ejemplo, en la mesa, y yo comentaba hace rato que cuando me empecé a meter en estos temas hace muchísimos años, en el MIT, cuando empezaron a trabajar a inteligencia artificial, en los comités interdisciplinarios había teólogos, había filósofos, justo porque estás tocando temas de lo que creemos es la esencia del ser humano, de la trascendencia misma, de la razón de porque existimos como existimos. 

Tal vez ustedes recordarán, pero todos estos movimientos, por ejemplo, los trashumanos, de los posthumanos que decían, a ver, será posible que mi cuerpo se vuelve obsoleto, porque al final mi cuerpo es biológico, pero habrá manera de que mi cerebro perpetuar y era mucho la lógica de los posthumanos sobre todo, ¿no?, el postulado de ellos, eran muy provocador en su momento, estamos hablando ya hace década y media, pero hablaba de esto, sí, si mi cuerpo es obsoleto pues entonces me quiero ir deshaciendo de mi cuerpo, ¿no?, para que mi cerebro siga vivo, ¿no?, y entonces, bueno pues son estas reflexiones que tenemos que hacer, no. 

Pues felicidades comisionado, ¿qué sigue después de este primer foro?. 

JJM: Era generar la reflexión, generar el debate, creo que hay muchos temas que tenemos que ir abordando, profesiones del futuro, queremos seguir con un abogado, con un ingeniero, cuando a la cuestión ahora es más universal viendo a los robots, qué hacemos, qué se va a requerir, qué requieren las empresas que están haciendo inteligencia judicial. 

GW: ¿Va a ver comisionados robots? 

JJM: A la mejor, hay que ver que el Comité de Evaluación pone ahí. 

JR: Oye, es un comentario champiño. 

JJM: Perdón. 

JR: Bueno. 

ES: Hay una cosa interesantísima, sabemos que todos los candidatos a la presidencia hoy están escuchando "Así las Cosas". 

GW: Todos, ajá. 

ES: Queridos candidatos, su sexenio va a ser el sexenio en donde va a ver que poner atención a la legislación en la inteligencia artificial, a cómo vamos a detonar más educación, más trabajo y muchos avances que estén basados en inteligencia artificial, háganse un favor y pongan atención y coincidan en la importancia de trabajar estos temas, pero no tardamos en preguntarles cuál va a ser su postura para podérselas recordar ya en el sexenio, ¿eh?. 

JR: Para podérselas recordar, sobre todo. 

ES: Gracias joven Risco. 

GW: Oye, porque si no vamos a tener presidentes robots también, estamos en esa línea y de hecho fíjate, el otro día escuchaba a Pedro Kumamoto, que como saben va para senador, senador independiente, si lo logra por supuesto, si resulta electo, pero es de los pocos a los que le he escuchado él, oigan, tenemos que hablar de esto, porque es el futuro del empleo, ¿no?, o sea, y el futuro muy cercano, no estamos hablando de un futuro muy lejano, ¿no?, el futuro del empleo, el futuro por ejemplo de la tecnología, por aquí nos decía una radioescucha que hay algunos autos decía ella especifico el Infinity, que lo que te están poniendo ya es un asistente, pero más personalizado, ¿no?, justo para que en un momento dado sí puedas hablar con alguien que te pueda resolver cosas como esto, doy vuelta a la derecha o me sigo de frente. 

JR: Me acuerdo del Phantom que hablaba, ¿te acuerdas? 

ES: Sí, claro que sí. 

JR: Y yo dije este es el pico, o sea, este es el pico de la tecnología, hasta ahí va a llegar, ya no se va a poder más. 

ES: Sí, claro. 

JR: Bueno. 

GW: Comisionado, podemos encontrar lo que se discutió y demás en algún lugar. 

JJM: En video ya está todo en el canal de You Tube del IFT, está disponible y estamos preparando unas memorias técnicas con lo que ahí se discutió, unas conclusiones, ya algo más analizado y lo vamos a poner a disposición de toda la gente en la página de Internet. 

JR: Dice FE_Nahle, dice: "No, Warkentin, en la política mexicana no hay inteligencia artificial, lo que hay es estupidez natural", así que abran paso dice (inaudible) por ahí, así que muchísimas gracias. 

GW: Ese es un gran tuitazo la verdad, gracias comisionado Javier Juárez, comisionado del Instituto Federal de Telecomunicaciones. 

JJ: Sí, muchas gracias. 

GW: Que sea la primera de muchas, espero, son temas realmente fascinantes. 

JJ: Gracias. 

GW: Gracias, querido Pizu. 

ES: Muy bonito día.  

 Fecha de la Entrevista: 25 January 2018

Documentos para descargar

Escuchar entrevista

Temas relacionados

Compartir

2024 Instituto Federal de Telecomunicaciones - Algunos Derechos Reservados