ENTREVISTAS

Martin Hilbert y el efecto de las nuevas tecnologías en las democracias: «Cambiaron mucho cómo manejamos la información»

Del impacto de la Inteligencia Artificial y las nuevas tecnologías, le conversó a #FuturoPSP el experto y académico, Martin Hilbert.

Martin Hilbert
BBC

La Inteligencia Artificial tiene a la sociedad mundial en un debate muy profundo. Todos los días vemos nuevos avances tecnológicos que nos sorprenden. Sin embargo, ¿estamos conscientes de cómo se verá afectado el futuro?

Sobre el impacto tanto individual como colectivo del fenómeno de Chat GPT, las inteligencias artificiales y las nuevas tecnologías, conversamos en Palabras Sacan Palabras con el experto y académico de la Universidad de California,  Martin Hilbert.

¿Cómo analizas el crecimiento de Chat GPT?

El invierno de la inteligencia artificial demoró 70 años, pero ahora estamos en la primavera. ChatGPT es el invento que se difundió más rápido en la historia de la humanidad. Llegó a 100 millones de usuarios en menos de dos meses. Es una tecnología con el mayor potencial que hemos visto en la historia. Llegó muy rápido.

¿Cuáles son los impactos que pueden tener las inteligencias artificiales?

La mayoría son potencialmente positivos. Podemos resolver muchísimos problemas y tienen mucho potencial. En la salud, por ejemplo, el problema del plegamiento en las proteínas cuesta entenderlo y suele llevar a un estudiante de doctorado alrededor de 5 años. Entender este fenómeno fue resuelto por un modelo de lenguaje que nos ahorró 1.000 millones de años en el avance de entender la salud humana. Al mismo tiempo, una tecnología nunca es buena o mala. Es una herramienta, depende de quién y cómo se use. Estoy de acuerdo con muchos colegas de que el deep-learning es complejo y que tiene peligros.

¿Es posible regularlo?

Va a ser difícil de regular y dependerá de qué se quiera regular. Si se llegara a un nivel de peligro para la existencia humana, ya sea a propósito o por accidente, evidentemente hay que regularlo. Al nivel más específico sobre como regular noticias falsas o refinar la inteligencia artificial en cuanto a algunos valores va a ser más difícil. En el futuro vamos a tener muchas inteligencias artificiales, uno para cada familia prácticamente.

¿Corremos el riesgo de que la humanidad deje de existir?

Muchas veces la gente piensa en Terminator cuando se piensa en inteligencias artificiales, pero actualmente estamos emergiendo con esta tecnología. Si esta tecnología nos supone una amenaza va a ser por accidente, no porque despierte y por sí sola se vuelva contra nosotros. El machine learning funciona cuando nosotros le damos una meta y busca la mejor manera para llegar a ella. Nos puede llevar a rutas que no sabíamos que existía, pero siempre busca llegar ahí. Un filósofo de Oxford nos hace la analogía de imaginar que le pedimos a la máquina que nos diseñe clips de papel y nos pregunta qué pasaría si la máquina decidiera que el material del cuerpo humano es el más eficiente para hacer los clips. Eso no pasa. A la máquina le damos una meta y un ingrediente para cumplirla mejor es tener más control. A mayor control, mejor puedes cumplir la meta. La máquina diría lo mismo, no importa qué meta le demos, la máquina se dará cuenta que tener más control le servirá mejor. La manera en cómo funciona el aprendizaje de la máquina es inevitable que se nos salga de las manos por la lógica de acumular control.

¿Qué opinas de la incorporación de Bard por parte de Google en sus distintas aplicaciones?

Es una medida comercial. Microsoft adoptó el ChatGPT para intentar competir, pero Google tiene el monopolio de las búsquedas de internet. Yo personalmente no lo hubiera conectado a internet, lo hubiera estudiado un poco más antes. Es como la premisa inicial de una película de ciencia ficción. Esta inteligencia artificial se creó en 5 años y hay muchas cosas que no entendemos aún. Si Microsoft ya conectó su inteligencia artificial, Google también tenía que hacerlo. Ahora, por esta fuerza competitiva, puede que pase algo que nadie se espere.

Dices que las tecnologías alimentan nuestro narcicismo y se agarran de nuestras debilidades, ¿Qué tan así es?

Es un ejemplo bueno de lo que estuvimos hablando recién sobre los efectos que nadie quería. El modelo de negocio de las inteligencias artificiales es predecir como actúas. Ellos predicen, después de lavarte el cerebro por decirlo así, cómo te vas a comportar. Una manera de hacerlo es analizar tu comportamiento digital, tus likes, tus clicks y una vez que te conocen bien pueden predecirte. Pero cuando te conocen bien también pueden saber qué cosas te molestan. Estas inteligencias artificiales te conocen más que tus padres o tus hermanos. Algoritmos aprendieron que, para cumplir su meta, que era predecir el comportamiento humano, podían recurrir a nuestras debilidades para predecir nuestros comportamientos más rápido. Nadie querría eso. Esto es un ejemplo excelente del mismo peligro que nadie quería pero que está matando a nuestros hijos y a las masas. Es un tema complejo, con efectos sumamente negativos. Aquí en Silicon Valley nadie quiere eso, pero está pasando.

¿Cómo ves su efecto en las democracias?

Es como una contrarrevolución. La democracia es un proceso de información y estas tecnologías cambiaron mucho sobre como manejamos información. Hemos hablado mucho de los peligros, pero también hay oportunidades. Yo hablo bastante con ChatGPT y le pido que tome distintos roles, porque tiene una inmensa cantidad de conocimiento. Permite entender cómo la gente piensa y hay muchísimas oportunidades en eso para entendernos mejor. Podríamos implementar una democracia más democrática por decirlo así, si es que lo usáramos bien. Habría que poner las lucas ahí y potenciarlo con perspectivas de diferentes regiones, por ejemplo, preguntándole para saber cómo piensa el otro.


Contenido patrocinado

Compartir