REF: ESW122625ES
En este artículo quiero hablar sobre la IA después de haber pasado cientos de horas viendo entrevistas largas —de dos a tres horas cada una— con expertos en el tema. Algunos están completamente a favor de la IA, otros están más del lado “doomer”, donde el resultado podría ser la extinción humana, y todo lo que existe entre esos dos extremos: desde la extinción hasta la utopía.
La conclusión a la que llego personalmente es que todo apunta a una dirección que no se puede detener, y que nadie quiere detener, sin importar cuál sea el resultado final: utopía, extinción humana o cualquier punto intermedio. Incluso cuando las personas que están desarrollando estos sistemas de IA son conscientes de que la extinción humana es una posibilidad real —como algunos de ellos admiten abiertamente—, siguen adelante. Algunos CEOs estiman una probabilidad del 20–30% de extinción humana, y aun así continúan.
Por supuesto, nadie puede predecir realmente hacia dónde va todo esto ni cómo se verán las cosas en 5, 10 o 50 años. También hay un enorme interés financiero involucrado. Se está invirtiendo cantidades masivas de dinero en todo lo relacionado con la IA: infraestructura, energía, hardware, centros de datos, todo lo necesario para que la IA funcione hoy y en el futuro. Expansión, escalabilidad, todo.
También me pregunto, como muchos expertos, incluido un profesor que verás en el video más abajo, si ya cruzamos una línea crítica. Este profesor es Stuart Russell, una de las figuras más respetadas en el mundo de la IA. Es un experto en IA reconocido a nivel mundial y profesor de Ciencias de la Computación en UC Berkeley, donde ocupa la cátedra Smith-Zadeh en Ingeniería y dirige el Center for Human-Compatible AI. Además, escribió uno de los libros de texto fundamentales sobre IA* hace unos 30 años, del cual estudiaron muchos de los desarrolladores de IA actuales, y es el autor del bestseller Human Compatible: AI and the Problem of Control.*
En esta entrevista, Stuart Russell expone la carrera de la IA valorada en billones de dólares, explica por qué los gobiernos no quieren regularla, advierte cómo la AGI podría reemplazar a los humanos tan pronto como en 2030, y sostiene que solo una catástrofe a nivel nuclear podría finalmente despertar a la humanidad frente a estos riesgos.
Durante la conversación, se le hace una pregunta muy directa e incómoda:
Si tuviera una oportunidad única en la vida de presionar un botón y apagar la IA por completo y para siempre —es decir, que la humanidad nunca volvería a trabajar en IA—, o decidir no presionarlo sabiendo que jamás tendría otra oportunidad de detenerla, ¿qué haría?
Él lucha profundamente con la pregunta, y su respuesta es muy impactante. No quiero arruinarla. Quiero que la veas tú mismo en el video de abajo. También he incluido un resumen de la entrevista, el cual puedes encontrar debajo del video.
Algo en lo que no dejo de pensar es esto: ¿qué pasaría si de alguna manera lográramos mantener la IA como una herramienta y no permitir que se convierta en un reemplazo del trabajo humano y del propósito humano? ¿Qué pasaría si los humanos se vuelven tan perezosos que ya no queda nada por hacer más que entretenerse? O tal vez pasaríamos nuestro tiempo construyendo relaciones, conversando, disfrutando de la naturaleza, mientras la IA y los robots se encargan de todo el trabajo pesado y la productividad. Tal vez los humanos ya no tendrían que ser “productivos” en el sentido tradicional.
Pero ¿y si, al final del día, igual terminamos extinguiéndonos? ¿Y si la IA decide que es mejor para el planeta deshacerse de los humanos? ¿O si nos destruimos a nosotros mismos, matándonos entre nosotros, o incluso suicidándonos porque la vida pierde sentido, porque ya no hay lucha, nada interesante que perseguir?
Ahora imagina que, después de todo esto, otra civilización —una civilización extraterrestre, o tal vez lo que venga después en la Tierra— estudia los registros históricos de la humanidad. Rastrean cuándo comenzó todo esto, cómo evolucionó y cómo terminó. Creo que llegarían a la conclusión de que los humanos alguna vez fueron la especie más inteligente y rica del planeta, pero que fueron incansables en su propia destrucción, terminando finalmente en la extinción.
Probablemente verían esto como una de las ideas más estúpidas imaginables. Incluso sabiendo los riesgos, incluso sabiendo que esto podía acabar con la humanidad, CEOs, corporaciones, gobiernos y sociedades siguieron adelante en lugar de decir: “Esto no tiene sentido. Detengámonos. Este no es un riesgo que valga la pena tomar”.
¿Qué tan estúpidos nos veríamos ante quienes nos estudien en el futuro?
Ya hoy miramos hacia atrás en la historia y criticamos a civilizaciones pasadas por las cosas tan absurdas que hicieron. Decimos: “¿En qué estaban pensando?”. Ahora imagina cómo podrían ver a nuestra generación: cómo todos aceptamos esto voluntariamente. Empresas reemplazando empleados con IA y robots. Gobiernos fomentándolo. La población abrazándolo. ¿Qué tan tonto se ve eso?
Esto parece ser parte de la condición humana. Es difícil de entender y difícil de explicar. ¿Por qué hacemos cosas que son tan obviamente autodestructivas? Creo que el libre albedrío juega un papel, pero también las emociones. Somos seres emocionales, no puramente racionales. Si fuéramos realmente racionales, nunca impulsaríamos el desarrollo de la IA hasta este punto —al menos no más allá de que sea una herramienta poderosa. Convertirla en un reemplazo de la humanidad no tiene sentido.
En este momento, a menos que los gobiernos implementen regulaciones serias para evitar una catástrofe que quizá no se pueda detener más adelante, no hay mucho que podamos hacer. Figuras influyentes como Stuart Russell —uno de los pioneros y padres de la IA moderna— ahora están diciendo: “Un momento, quizá no vamos por el camino correcto”. Él y otros como él están abogando fuertemente por la regulación.
Si no nos unimos como colectivo y presionamos por una regulación real y significativa, quizá simplemente estamos presenciando el camino hacia una casi extinción humana impulsada por la IA y la robótica.
Son tiempos interesantes los que estamos viviendo. Los autos autónomos ya están por todas partes. Los veo todo el tiempo y sigue siendo algo increíble. Y digo todo esto siendo alguien que usa IA todos los días, varias veces al día, como una herramienta.
Puede que digas: “Entonces eres un idiota por usar IA”. Tal vez tengas razón. Pero muchas personas que hoy se niegan a usar IA no se dan cuenta de que si usan redes sociales, ven Netflix, navegan por internet, usan un smartphone o una computadora, han estado usando IA durante años sin saberlo. La IA no comenzó con ChatGPT. Ha estado integrada en sistemas, plataformas, aplicaciones y dispositivos mucho antes de que fuera evidente para el público. Así que la idea de “yo no uso IA” simplemente no es cierta.
Dios mediante, encontraremos la manera de resolver esto. Tal vez Dios mismo tenga que intervenir para evitar que la humanidad se lleve a sí misma por el camino equivocado. No lo sé. Tal vez Yeshua regrese antes de que perdamos completamente la cabeza.
Honestamente, creo que estamos viviendo en los tiempos finales de los que habla la Biblia, pero ese es un tema para otro artículo.
Hasta entonces, mantente a salvo, sé inteligente, discierne los tiempos en los que estamos viviendo y pídele a Dios sabiduría.
Dios te bendiga.
* Si este contenido te aporta valor y deseas apoyar mi trabajo, puedes hacerlo utilizando los enlaces afiliados que comparto. Para ti no representa ningún costo adicional, pero a mí me ayuda a seguir creando contenido independiente, reflexivo y sin compromisos. Gracias por tu apoyo.
Aquí tienes el resumen del video con el profesor Stuart Russell sobre la seguridad de la IA.
Introducción
En este video, el profesor Stuart Russell, una figura destacada en el campo de la inteligencia artificial (IA), aborda los problemas urgentes que rodean a la IA, en particular los riesgos asociados con el desarrollo de sistemas de superinteligencia artificial. Russell, profesor en UC Berkeley y coautor de uno de los libros de texto fundamentales sobre IA, participa en un diálogo sobre la seguridad de las tecnologías de IA, el control humano y las amenazas existenciales que plantea el avance descontrolado de la IA. La conversación enfatiza la importancia de la regulación, las consideraciones éticas y las implicaciones sociales de la IA.
Puntos Clave y Temas
1. El llamado a la regulación de la IA
– En octubre de 2023, más de 850 expertos, incluido Russell, firmaron una declaración en la que abogan por prohibir el desarrollo de la superinteligencia artificial debido a la preocupación por una posible extinción humana. Russell destaca que, sin garantías de seguridad, la humanidad enfrenta consecuencias graves.
– Enfatiza que el ritmo actual del desarrollo de la IA es similar a jugar a la “ruleta rusa”, donde lo que está en juego podría llevar a resultados catastróficos, incluso peores que los riesgos que representan las armas nucleares.
2. La analogía evolutiva: el problema del gorila
– Russell introduce el “problema del gorila” para ilustrar las implicaciones de crear una IA más inteligente que los humanos. Históricamente, los humanos se separaron evolutivamente de los gorilas, lo que resultó en que los gorilas no tengan control sobre su destino debido a la superior inteligencia humana. (Nota de Eduardo Silva: En lo personal, no creo en la teoría de la evolución de Darwin, sino en el concepto de la creación que se menciona en la Biblia. Sin embargo, he incluido en este resumen lo que el profesor Russell mencionó a manera de analogía).
– Esta analogía plantea una pregunta crítica: a medida que desarrollamos sistemas más inteligentes, ¿podrían los humanos terminar en una posición similar, con la IA determinando nuestro futuro?
3. El toque de Midas y la codicia
– Russell analiza la metáfora del “toque de Midas”, ilustrando cómo la búsqueda de la tecnología de IA, impulsada por la codicia, podría llevar a la autodestrucción. Inicialmente vista como algo beneficioso, la expansión sin control de la IA podría producir consecuencias desastrosas, de forma similar a cómo el rey Midas convirtió todo en oro y terminó sufriendo por ello.
– Argumenta que las empresas tecnológicas están avanzando apresuradamente sin considerar adecuadamente las consecuencias, repitiendo el error de Midas.
4. Perspectivas de los líderes de la industria de la IA
– La conversación aborda las opiniones de líderes de la industria de la IA que reconocen los riesgos de extinción asociados con la IA, pero que se sienten obligados a continuar con su desarrollo para mantenerse competitivos.
– Russell menciona conversaciones con CEOs que creen que podría ser necesario un evento catastrófico, similar al desastre de Chernóbil, para que los gobiernos reaccionen y regulen las tecnologías de IA.
5. Predicciones sobre la Inteligencia Artificial General (AGI)
– Russell expresa escepticismo respecto a los plazos propuestos por varios CEOs sobre la llegada de la AGI. Considera que, aunque habrá avances, todavía no se comprende cómo crear AGI de forma segura.
– Las predicciones varían ampliamente entre los líderes del sector, y algunos anticipan la AGI en pocos años, pero Russell sostiene que estos plazos son demasiado optimistas dadas las complejidades involucradas.
6. La importancia de la seguridad en la IA
– Al abordar la seguridad de los sistemas de IA, Russell señala que el enfoque actual carece de mecanismos de control suficientes. La industria se concentra en desarrollar IA cada vez más poderosa sin comprender completamente cómo funcionan estos sistemas ni garantizar su seguridad.
– Compara las medidas de seguridad necesarias para la IA con las que existen en las plantas nucleares, subrayando que deben implementarse protocolos de seguridad rigurosos antes de una adopción generalizada de la IA.
7. El papel de la sociedad y los gobiernos
– Russell hace un llamado a un cambio social en la forma en que se percibe y regula la IA. Insta al público a expresar sus preocupaciones y presionar a los gobiernos para que actúen en materia de seguridad de la IA.
– Destaca que los responsables políticos deben priorizar los intereses humanos por encima de las presiones corporativas para garantizar un desarrollo responsable de estas tecnologías.
8. El concepto de IA compatible con el ser humano
– Russell propone la idea de crear una IA que esté fundamentalmente alineada con los valores e intereses humanos, en lugar de enfocarse únicamente en el poder. Sugiere que los sistemas de IA deben diseñarse para comprender y priorizar las necesidades humanas.
– Esta visión implica desarrollar una IA que no solo sea inteligente, sino que también sea capaz de entender emociones humanas complejas y dinámicas sociales.
9. El futuro del trabajo y la sociedad
– La conversación se extiende a las implicaciones de la IA en el mundo laboral. Russell reconoce que, a medida que los sistemas de IA se vuelvan más capaces, muchos trabajos tradicionales podrían desaparecer, provocando cambios económicos y sociales significativos.
– Expresa preocupación por la posible alienación de las personas en un futuro donde el rol humano se vea reducido, lo que lleva a reflexionar sobre la necesidad de nuevas formas de participación social y propósito.
10. El dilema entre individualismo y comunidad
– La conversación reflexiona sobre la paradoja de la sociedad moderna, donde la abundancia y el individualismo pueden conducir a un mayor aislamiento y a una pérdida de propósito. Russell subraya la importancia de la comunidad y de las relaciones interpersonales para fomentar una vida con sentido.
11. La importancia de la verdad y los valores humanos
– Russell expresa su compromiso con la verdad y las consideraciones éticas en el desarrollo de la IA. Destaca que un enfoque basado en la verdad es esencial para navegar la complejidad de la IA y asegurar que los avances tecnológicos beneficien a la humanidad.
– Anima a un esfuerzo colectivo entre individuos y gobiernos para dar forma al futuro de la IA en alineación con valores humanos compartidos.
Conclusión
El diálogo del profesor Stuart Russell resume la urgente necesidad de un enfoque integral en el desarrollo de la IA que priorice la seguridad, la ética y los intereses a largo plazo de la humanidad. La conversación exhorta a responsables políticos, líderes de la industria y al público en general a reflexionar críticamente sobre las implicaciones de la IA, abogando por un futuro en el que la tecnología sirva para mejorar la vida humana en lugar de ponerla en peligro. A medida que la IA continúa evolucionando, la necesidad de una gobernanza responsable y de la participación de la sociedad nunca ha sido tan clara.
¿Tienes Preguntas?
Si este contenido despertó alguna pregunta en ti —o si tienes ideas o comentarios sobre algún tema relacionado con la tecnología— te invito a compartirlos aquí. Tus preguntas también podrían ayudar a otras personas.
Antes de irte…
Si este tema resonó contigo, te invito a visitar la página principal, donde encontrarás un desglose claro de todos los temas que comparto y exploro. Desde estudios bíblicos y reflexiones espirituales, hasta crecimiento personal, lecciones de vida e incluso conversaciones más profundas sobre cultura, sistemas y teorías de conspiración —todo está organizado para que puedas encontrar fácilmente lo que conecte contigo.
Mi objetivo es simplemente compartir perspectivas que inviten a la reflexión, fomenten el pensamiento crítico y te ayuden a ver el mundo —y tu propia vida— desde un lugar más claro y más centrado.
Gracias por tomarte el tiempo de leer esto.
Toma lo que te sirva, cuestiona todo lo demás y mantén la curiosidad.
— Eduardo
