CONVIVIENDO CON LA INTELIGENCIA ARTIFICIAL - FERIA DE LA CIENCIA Y TECNOLOGIA

Vaya al Contenido
VIVIR CON LA INTELIGENCIA ARTIFICIAL: ¿CÓMO LO PODREMOS HACER BIEN?
La poderosa IA necesita estar alineada de manera confiable con los valores humanos. ¿Significa esto que IA eventualmente tendrá que controlar esos valores? Los filósofos de Cambridge Huw Price y Karina Vold consideran la relación entre la seguridad y la autonomía en la era de la superinteligencia.
Esta ha sido la década de la IA, con una hazaña asombrosa tras otra. ¿Una  IA de ajedrez que puede derrotar no solo a todos los jugadores de  ajedrez humanos, sino también a todas las máquinas de ajedrez previas programadas por humanos, después de aprender el juego en solo cuatro horas? Esa es la noticia de ayer, ¿qué sigue?.

Es cierto que estos prodigiosos logros se encuentran en la llamada IA ​​estrecha, donde las máquinas realizan tareas altamente especializadas. Pero muchos expertos creen que esta restricción es muy temporal. A mediados de siglo, podremos tener inteligencia artificial general (AGI): máquinas que son capaces de ofrecer un rendimiento a nivel humano en toda la gama de tareas que nosotros mismos podemos abordar.

Si es así, entonces hay pocas razones para pensar que se detendrá allí. Las máquinas estarán libres de muchas de las limitaciones físicas de la inteligencia humana. Nuestros cerebros funcionan a velocidades de procesamiento bioquímicas lentas con la potencia de una bombilla y necesitan pasar a través de un canal de nacimiento humano. Es notable lo que logran, dadas estas desventajas. Pero pueden estar tan lejos de los límites físicos del pensamiento como lo están nuestros ojos del Telescopio Espacial Webb.

Debemos asegurarnos de que las poderosas máquinas de IA sean  "amigables para los humanos", que tengan objetivos alineados de manera  confiable con nuestros propios valores.
En el lado positivo, la IA ya es útil y rentable para muchas cosas, y se  podría esperar que la súper IA sea súper útil y muy rentable. Pero cuanto más poderosa se vuelve IA, cuanto más le pedimos que haga por nosotros, más importante será especificar sus objetivos con gran  cuidado. El folclore está lleno de historias de personas que piden algo equivocado, con consecuencias desastrosas: el rey Midas, por ejemplo, que no quería  que su desayuno se convirtiera en oro cuando se lo llevó a los labios.

Por  lo tanto, debemos asegurarnos de que las poderosas máquinas de IA sean "amigables para los humanos", que tengan objetivos alineados de manera  confiable con nuestros propios valores. Una cosa que hace que esta tarea sea difícil es que, de acuerdo con los estándares que queremos que apunten las máquinas, nosotros mismos lo hacemos bastante mal. Los humanos están lejos de ser amigables con su misma especie. Nos hacemos muchas cosas terribles entre nosotros y a muchas otras criaturas sensibles con quienes compartimos el planeta. Si las máquinas superinteligentes no funcionan mucho mejor que nosotros, tendremos problemas graves. Tendremos una nueva inteligencia poderosa que amplifica los lados oscuros de nuestra propia naturaleza falible.

El  problema de "comenzar" es que necesitamos decirle a las máquinas lo que  están buscando con suficiente claridad y precisión para que podamos  estar seguros de que lo encontrarán
Por seguridad, entonces, queremos que las máquinas sean tanto éticamente como cognitivamente sobrehumanas. Queremos que apunten a la altura moral, no a las depresiones en las que muchos de nosotros pasamos parte de nuestro tiempo. Afortunadamente tendrán la inteligencia para el trabajo. Si hay rutas hacia las tierras altas, serán mejores que nosotros para encontrarlas y nos guiarán en la dirección correcta. Podrían ser nuestros guías para un mundo mucho mejor.
Sin embargo, hay dos grandes problemas con esta visión utópica. Una es cómo conseguimos que las máquinas comiencen el viaje, la otra es lo que significa llegar a este destino. El  problema de "comenzar" es que necesitamos decirle a las máquinas lo que  están buscando con suficiente claridad y precisión para que podamos  estar seguros de que lo encontrarán, sea lo que sea que realmente sea. Este  es un desafío desalentador, dado que estamos confundidos y en conflicto  sobre los ideales mismos, y las diferentes comunidades pueden tener diferentes puntos de vista.
El  problema del "destino" es que, al ponernos en manos de estos guías morales y guardianes, podríamos estar sacrificando nuestra propia  autonomía, una parte importante de lo que nos hace humanos.

Se  puede esperar que las máquinas, que son mejores que nosotros a la hora  de apegarse a las alturas morales, desalentar algunos de los lapsos que  damos por sentado
Solo para enfocarnos en un aspecto de estas dificultades, somos criaturas profundamente tribales. Nos resulta muy fácil ignorar el sufrimiento de los extraños, e incluso contribuimos a el, al menos indirectamente. Por nuestro propio bien, deberíamos esperar que IA lo haga mejor. No es solo que podamos encontrarnos a merced de la inteligencia artificial  de otra tribu, sino que no podríamos confiar en la nuestra, si hubiéramos enseñado que no todo lo que sucede importa. Esto significa que como criaturas tribales y moralmente falibles, debemos apuntar las máquinas en la dirección de algo mejor. ¿Como hacemos eso? Ese es el problema de comenzar.
En cuanto al problema de destino, supongamos que tenemos éxito. Se puede esperar que las máquinas, que son mejores que nosotros a la hora de apegarse a las alturas morales, desalentar algunos de los lapsos que damos por sentado. Podríamos perder nuestra libertad de discriminar a favor de nuestras propias tribus, por ejemplo.
La  pérdida de la libertad de comportarse mal no siempre es algo malo, por  supuesto: negarnos a nosotros mismos la libertad de mantener esclavos, o  de poner a los niños a trabajar en fábricas, o a fumar en restaurantes son indicios de progreso. Pero, ¿estamos listos para los señores éticos? ¿El silicio moralista que acorta nuestras opciones? Podrían ser tan  buenos en hacerlo que no nos damos cuenta de las vallas; ¿pero es este  el futuro que queremos? ¿Una vida en un zoológico moral bien controlado?

Estas cuestiones podrían parecer exageradas, pero ya están en nuestras  puertas. Imaginemos que queremos que una IA maneje las decisiones de asignación de recursos en nuestro sistema de salud, por ejemplo. Podría hacer mucho más justa y eficientemente que los seres humanos pueden  manejar, con los beneficios para los pacientes y los contribuyentes. Pero tendríamos que especificar sus objetivos correctamente (por  ejemplo, para evitar prácticas discriminatorias), y estaríamos privando a  algunos seres humanos (por ejemplo, doctores mayores) de algunos de los discrecionales que actualmente disfrutan. Así que ya nos enfrentamos a los problemas de inicio y destino. Y sólo van a ser más difíciles.

Hemos sobrevivido al riesgo nuclear hasta el momento, pero ahora tenemos una nueva tecnología poderosa para tratar, por nuestra propia seguridad, necesitamos apuntar a estos nuevos pensadores en la dirección correcta, y hacer que actúen bien para nosotros
Esta no es la primera vez que una nueva y poderosa tecnología ha tenido implicaciones morales. Hablando de los peligros de las armas termonucleares en 1954, Bertrand Russell argumentó que para evitar acabar con nosotros mismos "tenemos que aprender a pensar de una nueva manera". Instó a su oyente a apartar las lealtades tribales y a "considerarse sólo como miembro de una especie biológica... cuya desaparición ninguno de nosotros puede desear".

Hemos sobrevivido al riesgo nuclear hasta el momento, pero ahora tenemos una nueva tecnología poderosa para tratar...sí, literalmente, una nueva forma de pensar. Por nuestra propia seguridad, necesitamos apuntar a estos nuevos pensadores en la dirección correcta, y hacer que actúen bien para nosotros. Todavía no está claro si esto es posible, pero si es así, requerirá el mismo espíritu cooperativo, la misma voluntad de apartar el tribalismo, que Russell tenía en mente.

Pero ahí es donde el paralelo se detiene. Evitar la guerra nuclear significa hacer negocios como siempre. Conseguir el futuro a largo plazo de la mano de IA significa un mundo muy diferente. La inteligencia general y el razonamiento moral se piensan a menudo para ser capacidades únicamente humanas. Pero la seguridad parece requerir que pensemos en ellos como un paquete: si queremos dar inteligencia general a las máquinas, también tendremos que darles autoridad moral. Eso significa un final radical para el excepcionalismo humano. Razón de más para pensar en el destino ahora, y tener cuidado con lo que deseamos.

Huw Price
Profesor de Filosofía y miembro del Trinity College de la Universidad de Cambridge.

Mail: hp331@cam.ac.uk
Karina Vold; PhD
Investigadora Asociada en el Centro Leverhulme para el Futuro de la Inteligencia

Mail: kvv22@cam.ac.uk
Tus comentarios son importantes
Regreso al contenido