Vitalik Buterin: la IA puede superar a los humanos como “especie dominante”

“Puede que ni Marte sea seguro” si la IA superinteligente se vuelve contra la humanidad, advierte el cofundador de Ethereum; Vitalik Buterin.

La inteligencia artificial superavanzada, si no se controla, tiene “serias posibilidades” de superar a los humanos y convertirse en la próxima “especie dominante” del planeta, según el cofundador de Ethereum, Vitalik Buterin.

Pero eso se reducirá a la forma en que los humanos intervengan potencialmente en los avances de la IA, dijo.

New monster post: my own current perspective on the recent debates around techno-optimism, AI risks, and ways to avoid extreme centralization in the 21st century.https://t.co/6lN2fLBUUL pic.twitter.com/h5aIyFNCoh

— vitalik.eth (@VitalikButerin) November 27, 2023

Nuevo post monstruo: mi propia perspectiva actual sobre los recientes debates en torno al tecnooptimismo, los riesgos de la IA y las formas de evitar la centralización extrema en el siglo XXI.

En una entrada de blog del 27 de noviembre, Buterin, considerado por algunos como un líder intelectual en el espacio de la criptomoneda, argumentó que la IA es “fundamentalmente diferente” de otros inventos recientes -como las redes sociales, los anticonceptivos, los aviones, las armas, la rueda y la imprenta-, puesto que la IA puede crear un nuevo tipo de “mente” que puede volverse en contra de los intereses humanos, añadiendo:

“La IA es […] un nuevo tipo de mente que está ganando inteligencia rápidamente, y tiene serias posibilidades de superar las facultades mentales de los humanos y convertirse en la nueva especie dominante del planeta”.

Buterin argumentó que, a diferencia del cambio climático, una pandemia provocada por el hombre o una guerra nuclear, la IA superinteligente podría acabar con la humanidad y no dejar supervivientes, sobre todo si acaba viendo a los humanos como una amenaza para su propia supervivencia.

“Una forma en que la IA malograda podría empeorar el mundo es (casi) la peor posible: podría causar literalmente la extinción humana”.

“Puede que ni siquiera Marte sea seguro”, añadió Buterin.

Buterin citó una encuesta realizada en agosto de 2022 a más de 4,270 investigadores de aprendizaje automático que estimaban en un 5-10% la posibilidad de que la IA acabe con la humanidad.

Sin embargo, aunque Buterin subrayó que las afirmaciones de esta naturaleza son “extremas”, también hay formas de que los humanos prevalezcan.

Interfaces cerebrales y tecnooptimismo

Buterin sugirió integrar interfaces cerebro-ordenador (BCI) para ofrecer a los humanos más control sobre potentes formas de computación y cognición basadas en IA.

Una BCI es una vía de comunicación entre la actividad eléctrica del cerebro y un dispositivo externo, como un ordenador o una prótesis robótica.

Esto reduciría el bucle de comunicación bidireccional entre el hombre y la máquina de segundos a milisegundos y, lo que es más importante, garantizaría que los humanos conservaran cierto grado de “agencia significativa” sobre el mundo, afirmó Buterin.

Diagrama de dos posibles circuitos de retroalimentación entre el ser humano y la IA. Fuente: Vitalik Buterin

Buterin sugirió que esta vía sería “más segura”, porque los humanos podrían participar en cada decisión tomada por la máquina de IA.

“Podemos reducir el incentivo para descargar la responsabilidad de la planificación de alto nivel a la propia IA, y reducir así la posibilidad de que la IA haga por su cuenta algo totalmente desalineado con los valores de la humanidad”.

El cofundador de Ethereum también sugirió una “intención humana activa” para llevar la IA en una dirección que le beneficie a la humanidad, pues maximizar el beneficio no siempre lleva al ser humano por el camino más deseable.

Human beings are deeply good. pic.twitter.com/AbOfd75IJ4

— vitalik.eth (@VitalikButerin) November 27, 2023

Buterin concluyó que “nosotros, los humanos, somos la estrella más brillante” del universo, puesto que hemos desarrollado tecnología para expandir nuestro potencial durante miles de años, y esperamos que sea así por muchos más:

“Dentro de dos mil millones de años, si la Tierra o cualquier parte del universo aún conserva la belleza de la vida terrestre, serán artificios humanos como los viajes espaciales y la geoingeniería los que lo habrán hecho posible”.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

“Puede que ni Marte sea seguro” si la IA superinteligente se vuelve contra la humanidad, advierte el cofundador de Ethereum; Vitalik Buterin.
La inteligencia artificial superavanzada, si no se controla, tiene “serias posibilidades” de superar a los humanos y convertirse en la próxima “especie dominante” del planeta, según el cofundador de Ethereum, Vitalik Buterin.
Pero eso se reducirá a la forma en que los humanos intervengan potencialmente en los avances de la IA, dijo.

New monster post: my own current perspective on the recent debates around techno-optimism, AI risks, and ways to avoid extreme centralization in the 21st century.https://t.co/6lN2fLBUUL pic.twitter.com/h5aIyFNCoh— vitalik.eth (@VitalikButerin) November 27, 2023

Nuevo post monstruo: mi propia perspectiva actual sobre los recientes debates en torno al tecnooptimismo, los riesgos de la IA y las formas de evitar la centralización extrema en el siglo XXI.
En una entrada de blog del 27 de noviembre, Buterin, considerado por algunos como un líder intelectual en el espacio de la criptomoneda, argumentó que la IA es “fundamentalmente diferente” de otros inventos recientes -como las redes sociales, los anticonceptivos, los aviones, las armas, la rueda y la imprenta-, puesto que la IA puede crear un nuevo tipo de “mente” que puede volverse en contra de los intereses humanos, añadiendo:
“La IA es […] un nuevo tipo de mente que está ganando inteligencia rápidamente, y tiene serias posibilidades de superar las facultades mentales de los humanos y convertirse en la nueva especie dominante del planeta”.
Buterin argumentó que, a diferencia del cambio climático, una pandemia provocada por el hombre o una guerra nuclear, la IA superinteligente podría acabar con la humanidad y no dejar supervivientes, sobre todo si acaba viendo a los humanos como una amenaza para su propia supervivencia.
“Una forma en que la IA malograda podría empeorar el mundo es (casi) la peor posible: podría causar literalmente la extinción humana”.
“Puede que ni siquiera Marte sea seguro”, añadió Buterin.
Buterin citó una encuesta realizada en agosto de 2022 a más de 4,270 investigadores de aprendizaje automático que estimaban en un 5-10% la posibilidad de que la IA acabe con la humanidad.
Sin embargo, aunque Buterin subrayó que las afirmaciones de esta naturaleza son “extremas”, también hay formas de que los humanos prevalezcan.
Interfaces cerebrales y tecnooptimismo
Buterin sugirió integrar interfaces cerebro-ordenador (BCI) para ofrecer a los humanos más control sobre potentes formas de computación y cognición basadas en IA.
Una BCI es una vía de comunicación entre la actividad eléctrica del cerebro y un dispositivo externo, como un ordenador o una prótesis robótica.
Esto reduciría el bucle de comunicación bidireccional entre el hombre y la máquina de segundos a milisegundos y, lo que es más importante, garantizaría que los humanos conservaran cierto grado de “agencia significativa” sobre el mundo, afirmó Buterin.
Diagrama de dos posibles circuitos de retroalimentación entre el ser humano y la IA. Fuente: Vitalik ButerinButerin sugirió que esta vía sería “más segura”, porque los humanos podrían participar en cada decisión tomada por la máquina de IA.
“Podemos reducir el incentivo para descargar la responsabilidad de la planificación de alto nivel a la propia IA, y reducir así la posibilidad de que la IA haga por su cuenta algo totalmente desalineado con los valores de la humanidad”.
El cofundador de Ethereum también sugirió una “intención humana activa” para llevar la IA en una dirección que le beneficie a la humanidad, pues maximizar el beneficio no siempre lleva al ser humano por el camino más deseable.

Human beings are deeply good. pic.twitter.com/AbOfd75IJ4— vitalik.eth (@VitalikButerin) November 27, 2023

Buterin concluyó que “nosotros, los humanos, somos la estrella más brillante” del universo, puesto que hemos desarrollado tecnología para expandir nuestro potencial durante miles de años, y esperamos que sea así por muchos más:
“Dentro de dos mil millones de años, si la Tierra o cualquier parte del universo aún conserva la belleza de la vida terrestre, serán artificios humanos como los viajes espaciales y la geoingeniería los que lo habrán hecho posible”.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.