- La computación escala mediante sugerencias y pruebas de trabajo paralelo que reducen la carga de ejecución.
- La escalabilidad de los datos requiere disponibilidad, mientras que la codificación por borrado permite la reducción del tamaño de los bloques.
- La verificación del estado necesita conocimiento completo del sistema, lo que hace que la escalabilidad descentralizada sea la más difícil.
El cofundador de Ethereum, Vitalik Buterin, expuso una jerarquía que clasifica los desafíos de escalabilidad de blockchain según su dificultad. Colocó la computación por encima de los datos y el estado. Su explicación llegó mientras Ethereum cotizaba cerca de los $2,932 con una demanda de mercado estable. Buterin afirmó que la computación escala más fácilmente que los datos porque los desarrolladores pueden paralelizar el procesamiento, usar sugerencias o reemplazar la ejecución con pruebas criptográficas.
Explicó que la escalabilidad de los datos requiere garantías de disponibilidad, mientras que la escalabilidad del estado sigue siendo el desafío más difícil porque la verificación completa necesita información total del sistema.
El precio de Ethereum subió un 2,41% en 24 horas, mientras que la capitalización de mercado alcanzó los $353,98 mil millones. El volumen de operaciones cayó un 4,12% hasta los $26,61 mil millones. Estas señales de mercado coincidieron con un renovado debate sobre las opciones de diseño de escalabilidad en los sistemas blockchain.
Computación y Datos en la Jerarquía de Escalabilidad
Buterin describió la computación como la capa más fácil de escalar. Afirmó que los desarrolladores pueden paralelizar el procesamiento y exigir a los constructores de bloques que proporcionen sugerencias que reduzcan la carga de trabajo. También señaló que las pruebas criptográficas pueden reemplazar grandes porciones de computación.
“La computación es más fácil de escalar que los datos”, escribió Buterin. “Puedes paralelizarla, pedir al constructor de bloques que proporcione todo tipo de ‘sugerencias’ para ello o simplemente reemplazar cantidades arbitrarias con una prueba.”
Luego posicionó los datos como la capa intermedia en la jerarquía. Explicó que la disponibilidad de datos es inevitable cuando la verificación depende de ella. Sin embargo, dijo que los desarrolladores pueden dividir los datos y aplicar técnicas de codificación por borrado. “Los datos están en el medio”, escribió Buterin. “Si se requiere una garantía de disponibilidad de los datos, entonces esa garantía es necesaria; no hay manera de evitarlo.”
También describió el muestreo de disponibilidad de datos entre pares (Peer Data Availability Sampling) como un método que permite una escalabilidad flexible. Señaló que los nodos con capacidad limitada aún pueden producir bloques proporcionalmente más pequeños. Este proceso crea una degradación gradual en toda la red.
“Puedes lograr una degradación gradual para esto”, escribió. “Si un nodo solo tiene 1/10 de la capacidad de datos de otros nodos, siempre puede producir bloques de 1/10 del tamaño.”
La Capa Más Difícil de Escalar
Buterin describió el estado como el componente más difícil de escalar. Explicó que los nodos deben acceder al estado completo para verificar incluso una sola transacción. Sin información de estado completa, la verificación se vuelve imposible. “El estado es lo más difícil”, escribió Buterin. “Para garantizar la capacidad de verificar incluso una transacción, necesitas el estado completo.”
También explicó que reemplazar el estado por estructuras en árbol no elimina la necesidad de acceso al estado completo. Los nodos aún requieren todos los datos de estado para actualizar la raíz de la estructura. “Si reemplazas el estado con un árbol y conservas la raíz, necesitas el estado completo para poder actualizar esa raíz”, escribió.
Reconoció que algunos enfoques arquitectónicos pueden dividir el estado entre sistemas. Sin embargo, dijo que esos enfoques requieren cambios fundamentales y no ofrecen soluciones de propósito general. “Hay formas de dividirlo, pero implican cambios en la arquitectura”, escribió. “Fundamentalmente no son de propósito general.”
Relacionado: Kiyosaki apuesta doblemente por el oro, la plata, Bitcoin y Ethereum
Investigación de Ethereum y Contexto de Mercado
Buterin vinculó la jerarquía con decisiones de diseño más amplias en blockchain. Argumentó que los desarrolladores deberían reemplazar el estado por datos siempre que sea posible. También dijo que los desarrolladores deberían reemplazar los datos por computación si la descentralización se mantiene intacta.
“Por lo tanto, si puedes reemplazar el estado por datos, por defecto deberías considerarlo seriamente”, escribió. “Y si puedes reemplazar los datos por computación, por defecto deberías considerarlo seriamente.”
Los investigadores de Ethereum han perseguido soluciones de capa 2 como los rollups para descargar la computación y los compromisos de datos. También han explorado PeerDAS para separar la disponibilidad de datos de los requisitos de almacenamiento completo. Estos enfoques buscan escalar las redes sin obligar a cada nodo a procesar todos los datos.
El movimiento del precio de Ethereum reflejó una demanda estable durante esta discusión. El activo subió desde un mínimo intradía cercano a $2,865 y probó brevemente la zona de $2,940. La capitalización de mercado aumentó en línea con el precio, mientras que el volumen de operaciones disminuyó, lo que sugiere compras controladas en lugar de una rotación agresiva.


