Puntos claves de la noticia:
- La verificación paralela de bloques permitirá a Ethereum procesar más transacciones.
- El plan busca que operar un nodo siga siendo accesible para pequeños participantes.
- Las pruebas de conocimiento cero y blobs manejarán datos de la red principal.
Ethereum se enfrenta a un dilema técnico conocido: aumentar el número de transacciones que procesa sin que solo unos pocos operadores con gran capacidad de cómputo puedan validar la red. Vitalik Buterin, publicó un documento donde detalla una serie de modificaciones para resolver esa ecuación. La propuesta combina cambios inmediatos en el software con una revisión profunda de cómo se cobra el almacenamiento de datos.
Buterin plantea que el cuello de botella actual no es solo de espacio, sino de velocidad de verificación. Los nodos revisan los bloques de forma secuencial, lo que limita la cantidad de operaciones que pueden incluirse sin retrasar la red. Las próximas actualizaciones, conocidas internamente como Glamsterdam y ePBS, permitirán a los validadores examinar fragmentos del bloque en paralelo.
Esa modificación técnica, aparentemente menor, libera tiempo valioso dentro de la ventana de doce segundos que dura cada slot. Al usar más eficientemente ese intervalo, la red puede acomodar un mayor volumen de transacciones sin necesidad de aumentar el tamaño de los bloques ni exigir más potencia a los participantes.
El costo de los datos permanentes redefine la escalabilidad de Ethereum
El segundo pilar de la estrategia aborda una distorsión en el sistema de tarifas. Buterin sostiene que el modelo actual trata de forma similar dos acciones con consecuencias muy distintas para la red. Una transferencia ordinaria consume poder de cómputo momentáneo y luego libera esos recursos.
En cambio, desplegar un contrato inteligente o crear un token añade datos que cada nodo debe conservar de manera indefinida. Esa acumulación permanente incrementa el peso de la cadena y, con el tiempo, eleva la barrera de entrada para nuevos validadores.

La solución propuesta desacopla ambos conceptos. Las operaciones que generan almacenamiento perpetuo tendrían un costo más alto, mientras que el procesamiento de transacciones cotidianas podría abaratarse o mantenerse estable.
De esta forma, Ethereum podría absorber un mayor flujo de actividad diaria sin que el tamaño total de la blockchain crezca a un ritmo insostenible. Buterin busca evitar un escenario donde solo entidades con centros de datos dedicados puedan permitirse ejecutar un nodo completo.
A largo plazo, la red planea trasladar parte de su validación hacia las pruebas de conocimiento cero y los blobs. Estas estructuras de datos, introducidas originalmente para abaratar los costos de las capas secundarias, podrían asumir también el registro de transacciones de la capa principal.
Si los validadores pueden confirmar bloques sin tener que reejecutar cada operación, la carga computacional se reduce drásticamente. Esa transición permitiría aumentar la capacidad sin comprometer la descentralización.
El plan presentado por Buterin no depende de una sola solución milagrosa. Combina optimizaciones de software ya en desarrollo con una reforma económica que incentiva el uso eficiente del espacio. La red busca crecer sin perder de vista quiénes pueden permitirse formar parte de ella.




