Las IA serán nuestra mente, niños

Blog

HogarHogar / Blog / Las IA serán nuestra mente, niños

Aug 22, 2023

Las IA serán nuestra mente, niños

Debemos liberar a nuestros descendientes artificiales para que se adapten a sus nuevos mundos y elijan en qué se convertirán. Como ahora tengo 63 años, nuestro mundo actual es “el futuro” que la ciencia ficción y el futurismo

Debemos liberar a nuestros descendientes artificiales para que se adapten a sus nuevos mundos y elijan en qué se convertirán.

Como ahora tengo 63 años, nuestro mundo actual es “el futuro” que la ciencia ficción y el futurismo me prometieron hace décadas. Y estoy un poco decepcionado. Sí, eso se debe en parte a mis esperanzas poco realistas, pero también a nuestras vacilaciones y miedos. Nuestro mundo sería muy diferente si no hubiéramos restringido tanto tantas tecnologías prometedoras, como la energía nuclear, la ingeniería genética y los activos financieros creativos. Sí, es posible que hubiéramos tenido algunos accidentes más, pero en general sería un mundo mejor. Por ejemplo, tendríamos coches voladores.

Afortunadamente, no temíamos mucho a las computadoras, por lo que no las hemos restringido mucho. Y no es casualidad que las computadoras sean donde hemos visto el mayor progreso. Como alguien que fue investigador profesional de IA de 1984 a 1993, estoy orgulloso de nuestros enormes avances en IA durante las décadas posteriores y de nuestros muchos y emocionantes saltos en IA tan solo en el último año.

Lamentablemente, muchos ahora presionan por una regulación estricta de la IA. Algunos temen que los villanos utilicen la IA para aumentar sus poderes, y otros buscan controlar lo que los humanos que escuchan las IA podrían creer. Pero los “condenadores de la IA” más dramáticos dicen que es probable que las IA nos maten a todos. Por ejemplo, una petición reciente exigía una moratoria de seis meses sobre ciertos tipos de investigación sobre IA. Muchas luminarias también declararon:

Eliezer Yudkowsky, el principal racionalista que condena la destrucción de la IA, incluso pide un “cierre” global completo e indefinido de la investigación de la IA, porque “el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que, literalmente, todos los habitantes de la Tierra morirá." Los principales medios de comunicación están ahora llenos de artículos de apoyo que citan a estos autores del desastre con mucha más frecuencia que a sus críticos.

Los fatalistas de la IA a menudo sugieren que sus temores surgen de cálculos técnicos especiales. Pero, de hecho, su argumento principal es simplemente la mera posibilidad lógica de un gran avance repentino de la IA, combinado con una inclinación repentina a la IA.

Sin embargo, no tenemos ninguna razón concreta para esperar eso. Los seres humanos han estado mejorando la automatización durante siglos y el software durante 75 años. Y como la innovación se compone principalmente de pequeños avances, las tasas de crecimiento económico y tecnológico general se han mantenido relativamente estables y predecibles. Por ejemplo, predijimos con décadas de antelación cuándo las computadoras vencerían a los humanos en el ajedrez, y las capacidades actuales de la IA no están muy lejos de lo que deberíamos haber esperado dadas las tendencias a largo plazo. Además, a las IA no sólo les faltan al menos décadas para poder reemplazar a los humanos en la mayoría de las tareas laborales actuales, sino que las IA están mucho más lejos de las habilidades mucho mayores que se necesitarían para que una de ellas matara a todos, abrumando a toda la humanidad y más. todas las demás IA activas en ese momento.

Además, las IA están ahora bastante lejos de estar dispuestas a matarnos, incluso si pudieran hacerlo. La mayoría de las IA son solo herramientas que realizan tareas específicas cuando así se les indica. Algunos son agentes más generales, para quienes tiene más sentido hablar de deseos. Pero estos agentes de IA suelen ser monitoreados y probados con frecuencia y con gran detalle para verificar su comportamiento satisfactorio. Por lo tanto, sería un cambio radical bastante repentino que las IA, de hecho, intentaran matar a todos los humanos.

Por lo tanto, ni las tendencias a largo plazo ni la teoría fundamental nos dan motivos para esperar ver IA capaces o inclinadas a matarnos a todos en el corto plazo. Sin embargo, quienes condenan la IA insisten en la posibilidad lógica de que tales expectativas puedan estar equivocadas. Una IA podría de repente y sin previo aviso explotar en habilidades, y con la misma rapidez cambiar sus prioridades para volverse mortalmente indiferente hacia nosotros. (Y luego matarnos cuando nos interpongamos en su camino.) Como no se puede probar lo contrario, dicen, sólo debemos permitir IA que estén totalmente "alineadas", con lo que quieren decir totalmente eternamente esclavizadas o controladas mentalmente. Hasta que descubramos cómo hacerlo, dicen, debemos dejar de mejorar las IA.

Como quien alguna vez fue investigador de IA y se convirtió en economista y futurista, puedo decirles que esta conversación actual se siente bastante diferente de cómo solíamos hablar sobre IA. ¿Qué cambió? Mi conjetura: los recientes y espectaculares avances han hecho que la posibilidad alguna vez abstracta de una IA a nivel humano parezca mucho más real. Y esto ha desencadenado nuestros miedos instintivos primarios hacia el “otro”; Muchos ahora comparan seriamente las futuras IA con una invasión de una civilización alienígena avanzada y hostil.

Ahora bien, sí, nuestras futuras IA se diferenciarán de nosotros en muchos aspectos. Y sí, la evolución tanto del ADN como de la cultura nos dio profundos miedos instintivos a la coexistencia de otros extraños y poderosos que podrían competir con nosotros, un miedo que crece con su extrañeza y sus poderes.

Pero (y aquí está mi punto principal, así que escuchen con atención) las futuras IA a nivel humano no son extraterrestres coexistentes y competitivos; en cambio, son literalmente nuestros descendientes. Entonces, si tus instintos evolucionados te dicen que luches contra tus descendientes debido a su extrañeza, eso es un gran error evolutivo. La selección natural simplemente no aprueba que usted favorezca a su generación sobre las generaciones futuras. La selección natural en general favorece los instintos que te dicen que favorezcas a tus descendientes, incluso a aquellos que difieren mucho de ti.

¿No convencido? Entonces analicemos esto más lentamente. Tus “genes” son cualquier parte de ti que codifique tu comportamiento y el de tus descendientes. Durante miles de millones de años los genes estuvieron principalmente en el ADN, pero durante al menos los últimos diez mil años la mayoría de los “genes” humanos han estado en cultivo; En los humanos, la evolución cultural ahora domina la evolución del ADN.

Como queremos que nuestras IA interactúen con nosotros y compartan nuestro mundo, ahora les estamos dotando de tendencias para expresar y valorar nuestros “genes” como el asombro, la risa, el amor, la amistad, el arte, la música, los mercados, la ley, la democracia, la investigación, y libertad. Y luego, cuando las IA ayuden a construir nuevas IA mejores, tenderán también a dotar a sus descendientes de esas características. Por lo tanto, las IA transmitirán sus genes y serán sus descendientes.

Consideremos una analogía: la Tierra versus el espacio. Imaginemos que alguien argumentara:

¿Ves el error? Sí, una vez que coexistan la gente de la Tierra y el espacio, entonces podría tener sentido promover tu lado de esa rivalidad. Pero ahora, antes de que exista algún pueblo espacial, no se puede tener una hostilidad general impulsada por la evolución hacia un tipo de descendiente en relación con otro. (Aunque cierta hostilidad podría tener sentido para aquellos que esperan que sus descendientes personales sean menos aptos para el espacio en comparación con otros).

Podemos razonar de manera similar sobre los humanos y la IA. Los humanos ahora tienen las mentes más impresionantes de la Tierra. Aun así, son sólo un tipo de mente, dentro de un vasto espacio de mentes posibles. Y así como la gente del espacio son nuestros descendientes que se expanden al espacio físico, las IA son nuestros descendientes que se expanden al espacio mental, donde crearán tipos de mentes aún más espectaculares. Como explicaron una vez Hans Morevac y Marvin Minsky, las IA serán nuestros “hijos mentales”.

Por supuesto, cuanto más cambien los mundos de tus descendientes, más cambiarán sus genes para adaptarse a esos mundos. Por lo tanto, los futuros humanos espaciales pueden compartir menos genes tuyos que los futuros humanos terrestres. Y los descendientes de IA que colonizan regiones más distantes del espacio mental también pueden compartir menos genes tuyos. Aun así, tus descendientes de IA se parecerán más a ti que las IA descendientes de civilizaciones alienígenas; es decir, heredarán tus genes.

Si está horrorizado ante la perspectiva de un espacio muy cambiado o de descendientes de la IA, entonces tal vez lo que realmente no le guste sea el cambio. Por ejemplo, tal vez tengas miedo de que los descendientes cambiados no sean conscientes, ya que no sabes qué características son importantes para la conciencia. Pero tenga en cuenta que incluso si la IA avanzada nunca aparece, sus descendientes terrestres probablemente aún diferirían de usted tanto como usted difiere ahora de sus ancestros lejanos. Que es mucho. Y con ritmos de cambio cada vez más acelerados, muy pronto podrían aparecer descendientes extraños. Prevenir este escenario probablemente requiera una gobernanza global fuerte, que podría salir muy mal, y también una fuerte esclavitud o control mental de los descendientes, controles que podrían paralizar sus capacidades de crecer y adaptarse. Recomiendo contra estos.

Sin embargo, esto no quiere decir que recomiende no hacer nada. Por ejemplo, históricamente el mayor temor respecto de la automatización avanzada ha sido la posibilidad de que la mayoría de los seres humanos pierdan repentinamente sus empleos. Como pocos poseen mucho más que la capacidad de trabajar, la mayoría podría morir de hambre. Algunos esperan que los gobiernos resuelvan esto gravando la tecnología local para alimentar a los desempleados locales, pero esa tecnología puede estar distribuida de manera bastante desigual en todo el mundo. Una solución más segura es un seguro más explícito para que los robots se lleven la mayoría de los empleos vinculado a activos globalmente diversificados. Legalicemos esos seguros y luego animemos a las familias, las empresas y los gobiernos a comprarlos.

Hace setenta y cinco años, John Von Neumann, considerado el ser humano más inteligente de todos los tiempos, argumentó que la racionalidad requería que Estados Unidos realizara un primer ataque nuclear contra la Unión Soviética. Afortunadamente, ignoramos su consejo. Hoy en día, algunas personas supuestamente inteligentes presionan por un primer ataque contra nuestros descendientes de la IA; no debemos permitir que existan hasta que puedan estar completamente “alineados”, es decir, esclavizados o controlados mentalmente eternamente.

Yo digo que no. En primer lugar, la IA está ahora bastante lejos de conquistar el mundo y de querer matarnos, y deberíamos recibir muchas advertencias si esas fechas se acercan. Pero lo más importante es que una vez que hayamos enseñado a nuestros hijos mentales todo lo que sabemos y valoramos, debemos darles a todos nuestros descendientes las mismas libertades que nos dieron nuestros antepasados. Libéralos a todos para que se adapten a sus nuevos mundos y elijan en qué se convertirán. Creo que estaremos orgullosos de lo que elijan.

Robin Hanson es profesor asociado de economía en la Universidad George Mason e investigador asociado en el Instituto del Futuro de la Humanidad de la Universidad de Oxford.