Integración de la IA y las DeFi: Más allá de los juegos On-Chain de AlphaGo (II)
- XMR -4.35%
- TORN -2.32%
- AI -2.4%
- S -7.31%
- XRP -6.46%
Si bien la integración de la IA y las DeFi promete una eficiencia e inteligencia sin precedentes, también introduce una serie de riesgos y controversias éticas. Desde la manipulación del mercado hasta el escrutinio regulatorio, el camino hacia un sistema financiero verdaderamente descentralizado y justo está plagado de desafíos. En esta segunda parte de nuestro análisis, examinaremos estos problemas críticos y exploraremos cómo la industria puede sortearlos para lograr un crecimiento sostenible.
Riesgos y controversias éticas
4.1 Manipulación del mercado y riesgo sistémico
Resonancia del algoritmo de IA que desencadena caídas repentinas
La resonancia del algoritmo de IA puede convertirse en un catalizador de caídas repentinas del mercado, especialmente en mecanismos que dependen en gran medida de la estabilidad algorítmica. Los algoritmos de IA se utilizan comúnmente en la predicción de precios, la gestión de riesgos, la asignación de activos y otras áreas, pero cuando las estrategias de decisión entre múltiples sistemas de IA son inconsistentes o interactúan, pueden experimentar efectos de resonancia, lo que desencadena violentas fluctuaciones del mercado o incluso caídas repentinas.
Ataques adversarios: muestras de engaño de la IA dirigidas a protocolos DeFi (como la falsificación de datos de volumen de transacciones)
Con el avance de la tecnología de IA, los ataques adversarios dirigidos a protocolos DeFi se han vuelto más complejos y peligrosos. Los ataques adversarios se refieren al engaño de modelos de IA a través de entradas de datos cuidadosamente diseñadas, lo que afecta las decisiones del protocolo DeFi y el comportamiento del mercado. En el ecosistema DeFi, los modelos de IA se aplican ampliamente en la gestión de pools de liquidez, la fijación de precios de pares de negociación, la evaluación de riesgos y otras áreas, y la precisión de estos modelos es crucial.
Un ataque adversario típico es la falsificación de datos de volumen de transacciones, que interfiere con la fijación de precios del mercado y las decisiones de liquidez a través de una gran cantidad de transacciones falsas. Por ejemplo, los atacantes pueden crear varias cuentas falsas y realizar transacciones a gran escala y de bajo costo para simular altos volúmenes de transacciones para un activo. Este comportamiento puede engañar a los modelos de IA, lo que hace que juzguen erróneamente el verdadero valor de los activos y las tendencias del mercado. Para los contratos inteligentes del protocolo DeFi, tales ataques pueden conducir a una configuración incorrecta de la liquidez y decisiones de fijación de precios, lo que exacerba aún más la inestabilidad del mercado. También puede desencadenar reacciones en cadena, causando la venta masiva de activos únicos en los LP para obtener su liquidez y luego transferirla rápidamente.
4.2 Dilemas regulatorios y de cumplimiento
Definición de la SEC de EE. UU. de las propiedades de valor de "Tokens de IA" (en comparación con el caso Ripple)
Con respecto a si estos tokens cumplen con la definición de valores y si deben seguir las regulaciones de valores correspondientes, podemos hacer suposiciones al observar la historia, ya que la SEC puede hacer referencia al caso XRP al definir las propiedades de valor de los "Tokens de IA".
En el caso Ripple, la SEC consideró que los tokens XRP de Ripple eran valores porque se vendieron a inversores a través de una oferta inicial de monedas (ICO), y Ripple Labs llevó a cabo una serie de actividades de marketing durante el proceso de venta para promover la negociación de XRP. Este fallo indica que la SEC se centra en el método de emisión de tokens y en si el token representa una relación de capital o deuda con una empresa o proyecto.
Para los "Tokens de IA", la SEC podría adoptar criterios de juicio similares. En particular, si estos Tokens de IA se emiten a través de métodos similares a las ICO o IEO y están asociados con un proyecto o empresa de IA, la SEC podría considerar que estos tokens tienen propiedades de valor. Esto significa que los titulares de Tokens de IA podrían ser considerados como poseedores de algún interés económico, como los derechos a la distribución de los ingresos del proyecto o la apreciación del capital a través del aumento del valor del token. En otras palabras, los Tokens de IA están potencialmente sujetos a sanciones de la SEC.
Desafíos contra el lavado de dinero: dificultades de seguimiento de los mezcladores de IA (como las versiones actualizadas de Tornado Cash)
La tecnología de IA también se está utilizando para desarrollar herramientas de mezcla más encubiertas, como las versiones actualizadas de Tornado Cash. Esta tecnología de protección de la privacidad proporciona mejores garantías de privacidad para los usuarios legítimos, pero también plantea enormes desafíos contra el lavado de dinero (AML) para las agencias reguladoras.
Un problema central con los mezcladores es cómo dificultan enormemente el seguimiento de los flujos de fondos. Los mezcladores como Tornado Cash utilizan un modelo de "transacción en anillo", que dispersa los fondos a través de múltiples direcciones y transacciones antes de recombinarlos, rompiendo la cadena del flujo de fondos. Esta tecnología puede ocultar más eficazmente la fuente y el destino de los fondos, lo que aumenta enormemente la dificultad para que las agencias reguladoras realicen un seguimiento.
Por lo tanto, con la mejora de la tecnología de IA, los mezcladores pueden usar algoritmos más inteligentes para seleccionar dinámicamente múltiples direcciones de retransmisión, cambiar automáticamente las rutas de transacción e incluso predecir las tendencias del mercado para evitar los sistemas de monitoreo en cadena. Esto hace que las herramientas tradicionales de análisis de blockchain ya no sean efectivas. Además, los mezcladores de IA podrían adoptar aún más monedas de privacidad (como Monero) como base para las herramientas de transacción, lo que mejora aún más su anonimato. Las agencias reguladoras enfrentan desafíos de capacidad técnica extremadamente altos al enfrentarse a tecnología de cifrado y esquemas de anonimización tan avanzados. Las medidas regulatorias tradicionales contra el lavado de dinero (como las políticas KYC/AML) no pueden abordar eficazmente las nuevas amenazas que plantean los mezcladores de IA.
Para abordar este desafío, las agencias reguladoras deben introducir más tecnologías de monitoreo basadas en el análisis del comportamiento, utilizando el aprendizaje automático y el análisis de big data para identificar comportamientos anormales y posibles patrones de transacciones ilegales.
4.3 Límites éticos
Teoría del "Bosque Oscuro": ¿La IA conduce a la gamificación completa de suma cero de DeFi?
La teoría del "Bosque Oscuro" fue propuesta inicialmente por Liu Cixin en la serie "El problema de los tres cuerpos". La teoría asume que el universo es un entorno hostil e incierto donde la supervivencia de las civilizaciones depende de ocultar su existencia y eliminar otras amenazas potenciales tanto como sea posible. Dentro de este marco teórico, cada civilización en el universo se encuentra en un estado constante de juego, y cualquier acción que exponga a uno mismo podría traer consecuencias catastróficas.
Al introducir esta teoría en el contexto de DeFi, la predicción eficiente y la toma de decisiones automatizada de la IA permiten a los participantes del mercado obtener ganancias a través de estrategias precisas, mientras que otros participantes pueden enfrentar pérdidas. Por ejemplo, la negociación de alta frecuencia impulsada por la IA puede dificultar que otros participantes sigan el ritmo de los cambios del mercado o puede manipular con precisión los precios del mercado, lo que hace que los esfuerzos de muchos participantes se transformen en última instancia en ganancias de los competidores. El mecanismo de mercado en tales situaciones se acerca a un juego de suma cero.
Además, con la aplicación de estrategias de optimización de IA y aprendizaje profundo, la "invisibilidad" del mercado también puede aumentar, lo que hace que el comportamiento del mercado sea más difícil de predecir. Este juego al estilo del "bosque oscuro" puede colocar a los pequeños proyectos DeFi y a los nuevos participantes en una posición muy desventajosa, ya que carecen de recursos suficientes para competir con los grandes algoritmos impulsados por la IA, lo que exacerba la concentración de la riqueza y la distribución desigual de los recursos.
Por lo tanto, la IA sí tiene el potencial de hacer que la competencia en el ecosistema DeFi sea cada vez más feroz, tendiendo hacia la gamificación de suma cero, especialmente cuando muchos participantes del mercado adoptan estrategias algorítmicas y de negociación automatizadas similares.
Código abierto vs. código cerrado: contradicciones entre el encasillamiento del modelo Numerai y la gobernanza comunitaria
Numerai es una plataforma de fondos de cobertura descentralizada que combina IA y criptomonedas, que atrae a científicos de datos globales para que envíen modelos a través de la participación de código abierto en la predicción del mercado. Pero a medida que el proyecto se desarrolló, más personas comenzaron a centrarse en el problema del "encasillamiento" de los modelos. A medida que estos modelos se vuelven gradualmente más complejos e involucran altos niveles de optimización algorítmica, la implementación específica y los procesos de capacitación de los modelos a menudo se vuelven menos fáciles de comprender y explicar por completo. Esto implica cómo equilibrar la transparencia de la tecnología y la estructura de gobernanza del proyecto entre el código abierto y el código cerrado.
En plataformas como Numerai, los modelos de código abierto podrían permitir a algunos participantes atacarlos mediante ingeniería inversa o comportamiento malicioso. A medida que la tecnología de IA continúa desarrollándose, los algoritmos cada vez más complejos pueden estar "encasillados", lo que significa que sus procesos de toma de decisiones no se pueden presentar de manera totalmente transparente a la comunidad, lo que genera problemas de confianza.
Por otro lado, los modelos de código cerrado pueden proteger eficazmente los secretos comerciales y la propiedad intelectual de los modelos, lo que ayuda a reducir el riesgo de que los modelos se copien o manipulen maliciosamente. Para proyectos como Numerai, el código cerrado puede garantizar la seguridad y el valor comercial de sus modelos de IA.
Este fenómeno de "encasillamiento" entra en conflicto con los principios de la comunidad de código abierto. La intención original del código abierto es permitir que todos participen y auditen el sistema, pero los modelos encasillados impiden que los miembros de la comunidad comprendan completamente los mecanismos operativos detrás de los algoritmos, lo que podría generar contradicciones de gobernanza y crisis de confianza.
Perspectivas futuras y recomendaciones estratégicas
5.1 Tendencias de integración tecnológica
Autonomía
La tendencia central de la futura DeFAI es pasar de la automatización a la autonomía, impulsada por agentes autónomos. Estas entidades inteligentes impulsadas por la IA rompen las limitaciones de las reglas tradicionales y poseen la capacidad de analizar continuamente los datos en cadena, comprender la dinámica del mercado y ejecutar estrategias complejas, como optimizar los rendimientos de los préstamos en todos los protocolos, capturar oportunidades de arbitraje y equilibrar dinámicamente las carteras de inversión. Mejoran la eficiencia del capital y aportan rendimientos sostenibles a los protocolos a través de un funcionamiento ininterrumpido las 24 horas del día, los 7 días de la semana y una toma de decisiones precisa, remodelando la forma en que fluye el valor.
Colaboración multiagente
La principal competitividad del futuro DeFAI pasará de agentes inteligentes individuales a redes colaborativas multiagente. A través de la división del trabajo y la colaboración de grupos de agentes de IA distribuidos (como el desacoplamiento de los módulos de observación, planificación y ejecución), se logra la optimización paralela de estrategias complejas. Los sistemas colaborativos multiagente descomponen los problemas complejos en subtareas a través de la descomposición de tareas, y cada agente es responsable de una parte específica de la subtarea. Por ejemplo: los Agentes Observadores escanean grandes transferencias en cadena y fluctuaciones de LP en tiempo real, los Agentes de Estrategia generan modelos de cobertura y los Agentes Ejecutores enrutan automáticamente las rutas comerciales óptimas a través de múltiples cadenas. Mientras tanto, los modos de colaboración también evolucionarán, incluyendo el modo de red (cada agente puede comunicarse con todos los demás agentes) y el modo jerárquico (sistemas de agentes multicapa con supervisores).
5.2 Oportunidades de Inversión
Infraestructura: zkML utiliza pruebas de conocimiento cero para verificar el proceso de inferencia de los modelos de aprendizaje automático, lo que permite que los contratos inteligentes confíen en los resultados de la computación de aprendizaje automático externa sin ejecutar todo el modelo en cadena. Esta será una capa de infraestructura clave para la próxima generación de adopción de IA a gran escala en cadena. Los proyectos potenciales incluyen:
Giza
La principal competitividad de Giza radica en su pila de tecnología única y su posicionamiento en el ecosistema. Al traducir los modelos de aprendizaje automático en formato ONNX a programas de Cairo y lograr una verificación eficiente de la inferencia en cadena a través de ONNX Cairo Runtime de desarrollo propio, Giza resuelve el desafío de compatibilidad entre los modelos complejos y los circuitos de conocimiento cero. Su posicionamiento como un mercado descentralizado de modelos de IA atrae a proveedores y consumidores de modelos para formar un efecto de red de dos lados, mientras que la integración profunda con el ecosistema de StarkNet fortalece las barreras técnicas a través de su infraestructura ZK de alto rendimiento. Como un proyecto temprano que explora la comercialización de la IA en cadena, Giza ha establecido el reconocimiento de la marca, pero debe ser cauteloso con su dependencia del crecimiento del ecosistema de StarkNet.
EZKL
Las ventajas de EZKL se centran en la facilidad de uso para los desarrolladores y la optimización del dominio vertical. Admite modelos PyTorch/TensorFlow exportados a través de ONNX y compilados en circuitos zkSNARK, lo que reduce significativamente las barreras de migración para los desarrolladores. Su rendimiento es sobresaliente (como completar pruebas del modelo MNIST en 2 segundos), lo que mejora la practicidad a través de la gestión optimizada de la memoria y el diseño de circuitos. EZKL participa activamente en la comunidad de desarrolladores, es adoptado por múltiples proyectos de hackathon (como AI Coliseum) y acelera la iteración mediante herramientas de código abierto (como el soporte de backend Halo2). Centrándose en la verificación de la inferencia del aprendizaje profundo, optimiza específicamente la implementación de circuitos de funciones de activación no lineales (como ReLU) y se integra profundamente con los sistemas de prueba Plonkish (como Halo2), manejando eficientemente los cálculos de ML utilizando la funcionalidad de búsqueda. Sin embargo, debe abordar la posible competencia de las herramientas ZK generales (como Risc Zero).
Giza y EZKL representan dos vías de infraestructura zkML: Giza construye fosos a través del posicionamiento en el mercado vertical y la vinculación del ecosistema (como StarkNet), adecuado para el diseño a largo plazo de la comercialización de modelos de IA; EZKL se convierte en la opción preferida para escenarios de modelos ligeros (como los oráculos DeFi) con madurez de la cadena de herramientas y ventajas de rendimiento. Ambos necesitan superar la pérdida de precisión de la cuantificación y los desafíos de la aceleración del hardware, pero el ecosistema pionero y la especialización técnica han construido barreras a corto plazo para ellos. La competencia futura dependerá de la velocidad de iteración de la tecnología y las capacidades de expansión del ecosistema.

Capa de Aplicación: En comparación con las inversiones en la capa de infraestructura, las inversiones en la capa de aplicación son más difíciles de seleccionar. El mercado aún está explorando el ajuste producto-mercado (PMF) de AI+Crypto, y los productos que se introducen en el mercado se eliminan y actualizan constantemente. Con el avance de la infraestructura criptográfica y la IA en el mundo Web2, se introducirán más aplicaciones en el mercado para su prueba. Actualmente, DeFi + la ejecución del lenguaje natural parece ser una dirección relativamente madura. El proyecto líder en esta área es Griffain.
Griffain está construido sobre Solana, lo que permite a los usuarios realizar las operaciones correspondientes en cadena a través del chat en lenguaje natural con la IA. Actualmente es el marco principal en la pista, recibiendo el reconocimiento de la industria y múltiples aspectos de la integración, con productos que se actualizan continuamente. Sin embargo, su precio está siendo probado. Este es también un problema común para otros proyectos de AI+Crypto en términos de inversión, es decir, recibir demasiada atención y entrada de capital a corto plazo, creando un desajuste entre el valor de mercado y el valor intrínseco del producto. Ahora puede tomar un tiempo relativamente largo para corregir. Una interfaz de usuario fluida de alta calidad y una rápida velocidad de integración de nuevas API son clave para consolidar su posición de liderazgo.
5.3 Estrategias para Desarrolladores y Usuarios
Cómo participar en la economía de agentes de IA: desde la contribución de datos de entrenamiento hasta la participación en las ganancias de la estrategia
En las plataformas DeFi impulsadas por IA, los datos de entrenamiento son cruciales para el entrenamiento de modelos de IA. Los usuarios y desarrolladores pueden participar en la economía de agentes de IA proporcionando conjuntos de datos de alta calidad.
Un caso simple de economía de IA es el siguiente, con el mercado compuesto por usuarios, proveedores de estrategias y desarrolladores:
Usuarios: Pueden contribuir con sus propios datos de transacción, datos de comportamiento del mercado e incluso datos de precios de activos. Estos datos pueden ayudar a los modelos de IA a comprender mejor las tendencias del mercado, las fluctuaciones de precios y los factores de riesgo, mejorando sus capacidades de predicción y la eficacia de las operaciones. Los usuarios como contribuyentes de datos suelen recibir ciertas recompensas o participación en las ganancias en función de la cantidad y la calidad de los datos que proporcionan, obteniendo recompensas de tokens.
Proveedores de estrategias: Pueden obtener una parte de las ganancias de la ejecución de la estrategia compartiendo o vendiendo sus estrategias en la plataforma. Los agentes de IA pueden obtener ganancias a través del comercio automatizado, el arbitraje, la minería de liquidez y otras estrategias.
Desarrolladores: Pueden crear plataformas de agentes de estrategia de IA e implementar estas estrategias a través de agentes de IA. Los desarrolladores pueden obtener ingresos por comisiones, formando un ecosistema de múltiples ganancias.
Cobertura de Riesgos para Usuarios Ordinarios: Guía de Supervivencia DeFi Bajo la Manipulación de la IA
Como usuarios ordinarios, aunque la información y los recursos a su alcance son limitados, aún pueden mitigar algunos riesgos a través de métodos factibles.
Inversión Diversificada:
Una estrategia de mitigación de riesgos de uso general, los usuarios ordinarios pueden evitar concentrar todos sus activos en un solo protocolo DeFi. Un sistema de IA podría impulsar el precio de un mercado DeFi en una determinada dirección, y si la inversión de un usuario depende completamente de una sola plataforma DeFi, podría experimentar pérdidas a gran escala en un corto período de tiempo. La inversión diversificada puede propagar eficazmente el riesgo, reduciendo las pérdidas potenciales cuando una sola estrategia falla.
Uso de Herramientas de Monitoreo de IA para la Evaluación de Riesgos:
Los usuarios ordinarios pueden utilizar las herramientas de monitoreo de IA lanzadas en el mercado para la evaluación y el monitoreo de riesgos en tiempo real. Muchas plataformas de terceros proporcionan herramientas de evaluación de riesgos impulsadas por IA que pueden ayudar a los usuarios a identificar los riesgos potenciales y realizar ajustes mediante el análisis de los datos del mercado y las condiciones de los activos del usuario. Por ejemplo, algunos monitoreos pueden detectar rápidamente anomalías del mercado, ventas a gran escala, compras y otros comportamientos, lo que permite a los usuarios capturar riesgos potenciales.