Puntos clave de la noticia
- Vitalik Buterin alerta sobre los riesgos de la superinteligencia artificial y aboga por un enfoque cauteloso.
- Promueve el desarrollo de modelos abiertos que funcionen en hardware de consumo como una medida de protección.
- Expresa preocupaciones sobre la categorización y regulación de modelos de IA en propuestas actuales.
Vitalik Buterin, cofundador de Ethereum, ha compartido sus preocupaciones sobre los riesgos asociados con la inteligencia artificial (IA) superinteligente, en medio de recientes cambios de liderazgo en OpenAI.
Buterin sostiene que el desarrollo de una IA superinteligente es extremadamente riesgoso y que no se debe apresurar su avance.
My current views:
1. Superintelligent AI is very risky and we should not rush into it, and we should push against people who try. No $7T server farms plz.
2. A strong ecosystem of open models running on consumer hardware are an important hedge to protect against a future where…— vitalik.eth (@VitalikButerin) May 21, 2024
Hace un llamado a resistir las iniciativas que buscan impulsar rápidamente esta tecnología, especialmente aquellas que requieren infraestructuras masivas, como los centros de datos de siete billones de dólares.
En este contexto, Vitalik Buterin destaca la importancia de crear un ecosistema robusto de modelos de IA abiertos que puedan ejecutarse en hardware de consumo.
Según él, estos modelos son una medida crucial para protegernos contra un futuro donde el valor generado por la IA se concentre en unas pocas empresas, y la mayoría del pensamiento humano sea leído y mediado por servidores centrales controlados por un grupo reducido de personas.
Además, argumenta que los modelos abiertos que operan en hardware de consumo tienen un riesgo mucho menor de provocar catástrofes en comparación con los escenarios en los que la IA está bajo el control de corporaciones o entidades militares.
Vitalik Buterin también aborda la cuestión de la regulación de la IA, sugiriendo que una distinción entre modelos «pequeños» y «grandes» podría ser razonable en principio.
Propone eximir a los modelos pequeños y regular a los grandes, señalando que un modelo con 405 mil millones de parámetros es considerablemente más grande de lo que el hardware de consumo puede manejar (en comparación, 70 mil millones de parámetros son manejables; él mismo ejecuta modelos de este tamaño).
Sin embargo, expresa su preocupación de que muchas propuestas actuales tienden a clasificar eventualmente todos los modelos como «grandes», lo que podría llevar a una regulación excesiva y a la inhibición del desarrollo de tecnologías accesibles y seguras.
La importancia de la descentralización y regulación equilibrada según Vitalik Buterin
Vitalik Buterin enfatiza que el desarrollo de modelos de IA abiertos no solo democratiza el acceso a esta tecnología, sino que también reduce significativamente los riesgos asociados con su mal uso.
Al permitir que los modelos de IA funcionen en hardware de consumo, se dispersa el poder y se evita que unas pocas entidades controlen la mayor parte de la tecnología blockchain y los datos.
Este enfoque podría prevenir escenarios distópicos donde la IA se utilice para monitorear y controlar el pensamiento humano a gran escala.
La descentralización de la IA es también una estrategia para mitigar el «riesgo de fatalidad» que puede surgir cuando la tecnología es monopolizada por grandes corporaciones o instituciones militares.
La historia ha demostrado que la concentración de poder tecnológico en manos de unos pocos puede llevar a abusos y a consecuencias imprevistas.
Por lo tanto, fomentar una comunidad de desarrollo de IA abierta y accesible es fundamental para garantizar un uso seguro y ético de esta tecnología.
En cuanto a la regulación, Vitalik Buterin insiste en que debe ser flexible y adaptativa.
La clasificación rígida de todos los modelos como «grandes» podría sofocar la innovación y hacer que sea difícil para los desarrolladores independientes y pequeñas empresas contribuir al campo de la IA.
Una regulación equilibrada debería permitir un margen de maniobra para los proyectos más pequeños y experimentales, mientras se asegura de que los modelos realmente grandes y potencialmente peligrosos estén sujetos a una supervisión estricta.