ادغام هوش مصنوعی و دیفای: فراتر از بازیهای زنجیرهای AlphaGo (بخش دوم)
- XMR +0.91%
- TORN -1.3%
- AI -1.48%
- S -4.51%
- XRP -1.79%
در حالی که ادغام هوش مصنوعی و دیفای نوید کارایی و هوشمندی بیسابقهای را میدهد، مجموعهای از خطرات و اختلافات اخلاقی را نیز به همراه دارد. از دستکاری بازار گرفته تا بررسی دقیق مقررات، مسیر رسیدن به یک سیستم مالی واقعاً غیرمتمرکز و عادلانه مملو از چالشها است. در این بخش دوم از تحلیل خود، این مسائل حیاتی را بررسی کرده و چگونگی پیمایش آنها توسط صنعت برای دستیابی به رشد پایدار را بررسی خواهیم کرد.
خطرات و اختلافات اخلاقی
4.1 دستکاری بازار و ریسک سیستماتیک
تشدید رزونانس الگوریتم هوش مصنوعی، محرک سقوطهای ناگهانی بازار
رزونانس الگوریتم هوش مصنوعی میتواند به کاتالیزوری برای سقوطهای ناگهانی بازار تبدیل شود، به ویژه در مکانیسمهایی که به شدت به ثبات الگوریتمی وابسته هستند. الگوریتمهای هوش مصنوعی معمولاً در پیشبینی قیمت، مدیریت ریسک، تخصیص دارایی و سایر زمینهها استفاده میشوند، اما زمانی که استراتژیهای تصمیمگیری بین چندین سیستم هوش مصنوعی ناسازگار باشند یا با هم تعامل داشته باشند، ممکن است اثرات رزونانس را تجربه کنند و باعث نوسانات شدید بازار یا حتی سقوطهای ناگهانی شوند.
حملات خصمانه: نمونههای فریب هوش مصنوعی که پروتکلهای دیفای را هدف قرار میدهند (مانند جعل دادههای حجم معاملات)
با پیشرفت فناوری هوش مصنوعی، حملات خصمانه که پروتکلهای دیفای را هدف قرار میدهند، پیچیدهتر و خطرناکتر شدهاند. حملات خصمانه به گمراه کردن مدلهای هوش مصنوعی از طریق ورودیهای دادهای که با دقت طراحی شدهاند، اشاره دارد و از این طریق بر تصمیمات پروتکل دیفای و رفتار بازار تأثیر میگذارد. در اکوسیستم دیفای، مدلهای هوش مصنوعی به طور گسترده در مدیریت استخرهای نقدینگی، قیمتگذاری جفتهای معاملاتی، ارزیابی ریسک و سایر زمینهها به کار گرفته میشوند و دقت این مدلها بسیار مهم است.
یک حمله خصمانه معمولی، جعل دادههای حجم معاملات است که از طریق تعداد زیادی معاملات جعلی، در قیمتگذاری بازار و تصمیمات نقدینگی اختلال ایجاد میکند. به عنوان مثال، مهاجمان میتوانند چندین حساب جعلی ایجاد کرده و معاملات کمهزینه در مقیاس بزرگ انجام دهند تا حجم معاملات بالایی را برای یک دارایی جعل کنند. این رفتار میتواند مدلهای هوش مصنوعی را فریب دهد و باعث شود که آنها در مورد ارزش واقعی داراییها و روندهای بازار قضاوت اشتباه کنند. برای قراردادهای هوشمند پروتکل دیفای، چنین حملاتی میتواند منجر به پیکربندی نادرست نقدینگی و تصمیمات قیمتگذاری شود و در نتیجه بیثباتی بازار را تشدید کند. همچنین ممکن است واکنشهای زنجیرهای را تحریک کند و باعث فروش گسترده تک دارایی در LPها برای به دست آوردن نقدینگی خود و سپس انتقال سریع آن شود.
4.2 معضلات نظارتی و انطباق
تعریف کمیسیون بورس و اوراق بهادار ایالات متحده (U.S. SEC) از ویژگیهای امنیتی "{AI Tokens}" (در مقایسه با پرونده ریپل)
در مورد اینکه آیا این توکنها مطابق با تعریف اوراق بهادار هستند و آیا نیاز به پیروی از مقررات مربوطه اوراق بهادار دارند یا خیر، میتوانیم با نگاهی به گذشته فرضیاتی را مطرح کنیم، زیرا SEC ممکن است هنگام تعریف ویژگیهای امنیتی "{AI Tokens}" به پرونده XRP ارجاع دهد.
در پرونده ریپل، SEC توکنهای XRP ریپل را اوراق بهادار در نظر گرفت، زیرا آنها از طریق عرضه اولیه سکه (ICO) به سرمایهگذاران فروخته شدند و Ripple Labs در طول فرآیند فروش، یک سری فعالیتهای بازاریابی را برای ترویج معاملات XRP انجام داد. این حکم نشان میدهد که SEC بر روش صدور توکن و اینکه آیا توکن نشاندهنده رابطه سهام یا بدهی با یک شرکت یا پروژه است، تمرکز دارد.
برای "{AI Tokens}"، SEC ممکن است معیارهای قضاوت مشابهی را اتخاذ کند. به طور خاص، اگر این توکنهای هوش مصنوعی از طریق روشهایی مشابه ICO یا IEO صادر شوند و با یک پروژه یا شرکت هوش مصنوعی مرتبط باشند، SEC ممکن است این توکنها را دارای ویژگیهای امنیتی بداند. این بدان معناست که دارندگان توکنهای هوش مصنوعی ممکن است دارای منافع اقتصادی باشند، مانند حقوق مربوط به توزیع درآمدهای پروژه یا افزایش سرمایه از طریق افزایش ارزش توکن. به عبارت دیگر، "{AI Tokens}" به طور بالقوه مشمول تحریمهای SEC هستند.
چالشهای مبارزه با پولشویی: ردیابی دشوار میکسرهای هوش مصنوعی (مانند نسخههای ارتقا یافته Tornado Cash)
فناوری هوش مصنوعی همچنین برای توسعه ابزارهای ترکیب پنهانیتر، مانند نسخههای ارتقا یافته Tornado Cash، استفاده میشود. این فناوری حفاظت از حریم خصوصی، تضمینهای حریم خصوصی بهتری را برای کاربران قانونی فراهم میکند، اما چالشهای عظیمی را نیز در زمینه مبارزه با پولشویی (AML) برای آژانسهای نظارتی به همراه دارد.
یک مسئله اصلی در مورد میکسرها این است که چگونه آنها جریان وجوه را به شدت دشوار میکنند. میکسرهایی مانند Tornado Cash از یک مدل "تراکنش حلقهای" استفاده میکنند و وجوه را در چندین آدرس و تراکنش پراکنده میکنند قبل از اینکه دوباره آنها را ترکیب کنند و زنجیره جریان وجوه را میشکنند. این فناوری میتواند منبع و مقصد وجوه را به طور موثرتری پنهان کند و به طور چشمگیری ردیابی را برای آژانسهای نظارتی دشوارتر کند.
بنابراین، با ارتقاء فناوری هوش مصنوعی، میکسرها میتوانند از الگوریتمهای هوشمندتری برای انتخاب پویا چندین آدرس رله، تغییر خودکار مسیرهای تراکنش و حتی پیشبینی روندهای بازار برای جلوگیری از سیستمهای نظارتی درون زنجیرهای استفاده کنند. این امر ابزارهای تحلیل بلاک چین سنتی را دیگر مؤثر نمیسازد. علاوه بر این، میکسرهای هوش مصنوعی ممکن است بیشتر از کوینهای حریم خصوصی (مانند مونرو) به عنوان مبنایی برای ابزارهای تراکنش استفاده کنند و ناشناس بودن آنها را بیشتر افزایش دهند. آژانسهای نظارتی هنگام مواجهه با چنین فناوری رمزگذاری پیشرفته و طرحهای ناشناسسازی، با چالشهای بسیار بالایی در زمینه قابلیتهای فنی روبرو هستند. اقدامات نظارتی سنتی ضد پولشویی (مانند سیاستهای KYC/AML) نمیتوانند به طور مؤثر تهدیدهای جدید ناشی از میکسرهای هوش مصنوعی را برطرف کنند.
برای مقابله با این چالش، آژانسهای نظارتی باید فناوریهای نظارتی مبتنی بر تحلیل رفتار بیشتری را معرفی کنند و از یادگیری ماشین و تحلیل دادههای بزرگ برای شناسایی رفتارهای غیرعادی و الگوهای بالقوه تراکنشهای غیرقانونی استفاده کنند.
4.3 مرزهای اخلاقی
نظریه "جنگل تاریک": آیا هوش مصنوعی منجر به گیمیفیکیشن کامل با جمع جبری صفر در DeFi میشود؟
نظریه "جنگل تاریک" در ابتدا توسط لیو سیشین در مجموعه "مسئله سه جسم" مطرح شد. این نظریه فرض میکند که جهان یک محیط خصمانه و نامشخص است که بقای تمدنها در آن بستگی به پنهان کردن وجود خود و از بین بردن سایر تهدیدهای بالقوه تا حد امکان دارد. در این چارچوب نظری، هر تمدنی در جهان در یک حالت دائمی از بازی قرار دارد و هر اقدامی که خود را در معرض دید قرار دهد، میتواند عواقب فاجعهباری به همراه داشته باشد.
با وارد کردن این نظریه به زمینه DeFi، پیشبینی کارآمد و تصمیمگیری خودکار هوش مصنوعی به شرکتکنندگان بازار اجازه میدهد تا از طریق استراتژیهای دقیق سود کسب کنند، در حالی که سایر شرکتکنندگان ممکن است با ضرر مواجه شوند. به عنوان مثال، معاملات با فرکانس بالا مبتنی بر هوش مصنوعی ممکن است پیگیری تغییرات بازار را برای سایر شرکتکنندگان دشوار کند یا ممکن است قیمتهای بازار را به طور دقیق دستکاری کند و باعث شود تلاشهای بسیاری از شرکتکنندگان در نهایت به سود رقبا تبدیل شود. مکانیسم بازار در چنین شرایطی به یک بازی با جمع جبری صفر نزدیک میشود.
علاوه بر این، با استفاده از استراتژیهای بهینهسازی هوش مصنوعی و یادگیری عمیق، "پنهانکاری" بازار نیز ممکن است افزایش یابد و رفتار بازار را دشوارتر برای پیشبینی کند. این بازی به سبک "جنگل تاریک" ممکن است پروژههای کوچک DeFi و شرکتکنندگان جدید را در موقعیت بسیار نامناسبی قرار دهد، زیرا آنها فاقد منابع کافی برای رقابت با الگوریتمهای بزرگ مبتنی بر هوش مصنوعی هستند و تمرکز ثروت و توزیع نابرابر منابع را تشدید میکند.
بنابراین، هوش مصنوعی در واقع این پتانسیل را دارد که رقابت در اکوسیستم DeFi را به طور فزایندهای شدید کند و به سمت گیمیفیکیشن با جمع جبری صفر سوق دهد، به ویژه زمانی که بسیاری از شرکتکنندگان بازار استراتژیهای معاملاتی خودکار و الگوریتمی مشابهی را اتخاذ کنند.
منبع باز در مقابل منبع بسته: تناقضات بین جعبه سیاه مدل Numerai و حاکمیت جامعه
Numerai یک پلتفرم صندوق پوشش ریسک غیرمتمرکز است که هوش مصنوعی و ارزهای دیجیتال را با هم ترکیب میکند و دانشمندان داده جهانی را برای ارسال مدلها از طریق مشارکت منبع باز در پیشبینی بازار جذب میکند. اما با توسعه پروژه، افراد بیشتری شروع به تمرکز بر مسئله "جعبه سیاه" مدلها کردند. از آنجایی که این مدلها به تدریج پیچیدهتر میشوند و شامل سطوح بالایی از بهینهسازی الگوریتمی هستند، پیادهسازی خاص و فرآیندهای آموزش مدلها اغلب کمتر آسان برای درک و توضیح کامل میشوند. این شامل نحوه تعادل بین شفافیت فناوری و ساختار حاکمیتی پروژه بین منبع باز و منبع بسته است.
در پلتفرمهایی مانند Numerai، مدلهای منبع باز ممکن است برخی از شرکتکنندگان را قادر سازد تا از طریق مهندسی معکوس یا رفتار مخرب به آنها حمله کنند. با ادامه توسعه فناوری هوش مصنوعی، الگوریتمهای پیچیدهتر به طور فزایندهای ممکن است "جعبه سیاه" شوند، به این معنی که فرآیندهای تصمیمگیری آنها نمیتواند به طور کامل به طور شفاف به جامعه ارائه شود و منجر به مسائل مربوط به اعتماد شود.
از طرف دیگر، مدلهای منبع بسته میتوانند به طور مؤثر از اسرار تجاری و مالکیت معنوی مدلها محافظت کنند و به کاهش خطر کپیبرداری یا دستکاری مخرب مدلها کمک کنند. برای پروژههایی مانند Numerai، منبع بسته میتواند امنیت و ارزش تجاری مدلهای هوش مصنوعی آنها را تضمین کند.
این پدیده "جعبه سیاه" با اصول جامعه منبع باز در تضاد است. هدف اصلی منبع باز این است که به همه اجازه دهد در سیستم شرکت کنند و آن را ممیزی کنند، اما مدلهای جعبه سیاه مانع از درک کامل مکانیسمهای عملکرد پشت الگوریتمها توسط اعضای جامعه میشوند و به طور بالقوه منجر به تناقضات حاکمیتی و بحرانهای اعتماد میشوند.
چشم انداز آینده و توصیههای استراتژیک
5.1 روندهای ادغام فناوری
خودمختاری
روند اصلی DeFAI آینده، حرکت از اتوماسیون به سمت خودمختاری است که توسط عاملهای خودگردان هدایت میشود. این موجودیتهای هوشمند مبتنی بر هوش مصنوعی، محدودیتهای قوانین سنتی را شکسته و توانایی تجزیه و تحلیل مداوم دادههای درون زنجیرهای، درک پویاییهای بازار و اجرای استراتژیهای پیچیده مانند بهینهسازی بازده وامدهی در پروتکلها، شکار فرصتهای آربیتراژ و متعادلسازی پویای پورتفویهای سرمایهگذاری را دارند. آنها با عملکرد بدون وقفه 24/7 و تصمیمگیری دقیق، کارایی سرمایه را افزایش داده و بازده پایدار را برای پروتکلها به ارمغان میآورند و نحوه جریان ارزش را تغییر میدهند.
همکاری چند عاملی
رقابتپذیری اصلی DeFAI آینده از عاملهای هوشمند منفرد به شبکههای مشارکتی چند عاملی تغییر خواهد کرد. از طریق تقسیم کار و همکاری گروههای عامل هوش مصنوعی توزیعشده (مانند جداسازی ماژولهای مشاهده، برنامهریزی و اجرا)، بهینهسازی موازی استراتژیهای پیچیده حاصل میشود. سیستمهای مشارکتی چند عاملی، مسائل پیچیده را از طریق تجزیه وظایف به زیروظایف تقسیم میکنند و هر عامل مسئول بخش خاصی از زیروظیفه است. به عنوان مثال: عاملهای ناظر، انتقالهای بزرگ درون زنجیرهای و نوسانات LP را در زمان واقعی اسکن میکنند، عاملهای استراتژی، مدلهای پوشش ریسک را تولید میکنند و عاملهای اجرا، به طور خودکار مسیرهای معاملاتی بهینه را در زنجیرههای متعدد مسیریابی میکنند. در همین حال، حالتهای همکاری نیز تکامل خواهند یافت، از جمله حالت شبکه (هر عامل میتواند با تمام عاملهای دیگر ارتباط برقرار کند) و حالت سلسله مراتبی (سیستمهای عامل چند لایه با سرپرستان).
5.2 فرصتهای سرمایهگذاری
زیرساخت: zkML از اثباتهای دانش صفر برای تأیید فرآیند استنتاج مدلهای یادگیری ماشین استفاده میکند و به قراردادهای هوشمند اجازه میدهد تا به نتایج محاسبات یادگیری ماشین خارجی بدون اجرای کل مدل روی زنجیره اعتماد کنند. این یک لایه زیرساختی کلیدی برای نسل بعدی پذیرش هوش مصنوعی در مقیاس بزرگ روی زنجیره خواهد بود. پروژههای بالقوه عبارتند از:
Giza
رقابتپذیری اصلی Giza در پشته فناوری منحصربهفرد و موقعیتیابی اکوسیستم آن نهفته است. Giza با ترجمه مدلهای یادگیری ماشین با فرمت ONNX به برنامههای Cairo و دستیابی به تأیید استنتاج کارآمد روی زنجیره از طریق ONNX Cairo Runtime خود توسعه یافته، چالش سازگاری بین مدلهای پیچیده و مدارهای دانش صفر را حل میکند. موقعیتیابی آن به عنوان یک بازار مدل هوش مصنوعی غیرمتمرکز، ارائهدهندگان و مصرفکنندگان مدل را جذب میکند تا یک اثر شبکه دو طرفه ایجاد کنند، در حالی که با ادغام عمیق با اکوسیستم StarkNet، موانع فنی را از طریق زیرساخت ZK با کارایی بالا تقویت میکند. Giza به عنوان یک پروژه اولیه که تجاریسازی هوش مصنوعی روی زنجیره را بررسی میکند، شناخت برند را ایجاد کرده است، اما باید در مورد وابستگی خود به رشد اکوسیستم StarkNet محتاط باشد.
EZKL
مزایای EZKL بر سهولت استفاده برای توسعهدهندگان و بهینهسازی دامنه عمودی متمرکز است. این ابزار از مدلهای PyTorch/TensorFlow که از طریق ONNX صادر شده و به مدارهای zkSNARK کامپایل شدهاند، پشتیبانی میکند و موانع مهاجرت توسعهدهندگان را به میزان قابل توجهی کاهش میدهد. عملکرد آن برجسته است (مانند تکمیل اثباتهای مدل MNIST در 2 ثانیه) و از طریق مدیریت بهینه حافظه و طراحی مدار، کاربردی بودن را افزایش میدهد. EZKL در انجمن توسعهدهندگان فعال است، توسط چندین پروژه هکاتون (مانند AI Coliseum) پذیرفته شده است و با متنباز کردن زنجیرههای ابزار (مانند پشتیبانی از باطن Halo2) تکرار را تسریع میکند. با تمرکز بر تأیید استنتاج یادگیری عمیق، به طور خاص پیادهسازی مدار توابع فعالسازی غیرخطی (مانند ReLU) را بهینه میکند و به طور عمیق با سیستمهای اثبات Plonkish (مانند Halo2) ادغام میشود و محاسبات ML را با استفاده از قابلیت جستجو به طور کارآمد انجام میدهد. با این حال، باید به رقابت احتمالی از ابزارهای ZK عمومی (مانند Risc Zero) رسیدگی کند.
Giza و EZKL نشاندهنده دو مسیر زیرساخت zkML هستند: Giza از طریق موقعیتیابی در بازار عمودی و اتصال اکوسیستم (مانند StarkNet) موانعی ایجاد میکند که برای طرحبندی بلندمدت تجاریسازی مدل هوش مصنوعی مناسب است. EZKL با بلوغ زنجیره ابزار و مزایای عملکرد، به انتخاب ارجح برای سناریوهای مدل سبک وزن (مانند اوراکلهای DeFi) تبدیل میشود. هر دو باید بر تلفات دقت کوانتیزاسیون و چالشهای شتابدهی سختافزاری غلبه کنند، اما اکوسیستم پیشگام و تخصص فنی موانع کوتاهمدتی را برای آنها ایجاد کردهاند. رقابت آینده به سرعت تکرار فناوری و قابلیتهای گسترش اکوسیستم بستگی خواهد داشت.

لایه کاربرد: در مقایسه با سرمایهگذاری در لایه زیرساخت، انتخاب سرمایهگذاری در لایه کاربرد دشوارتر است. بازار هنوز در حال بررسی تناسب محصول با بازار (PMF) هوش مصنوعی + کریپتو است و محصولاتی که به بازار عرضه میشوند دائماً در حال حذف و بهروزرسانی هستند. با پیشرفت زیرساخت کریپتو و هوش مصنوعی در دنیای Web2، برنامههای کاربردی بیشتری برای آزمایش به بازار عرضه خواهند شد. در حال حاضر، به نظر میرسد DeFi + اجرای زبان طبیعی یک مسیر نسبتاً بالغ باشد. پروژه پیشرو در این زمینه Griffain است.
گریفین بر روی سولانا ساخته شده است و به کاربران اجازه میدهد تا از طریق چت با هوش مصنوعی، عملیات زنجیرهای مربوطه را انجام دهند. در حال حاضر، این پلتفرم چارچوب اصلی در این حوزه است و مورد تایید صنعت و جنبههای مختلف ادغام قرار گرفته و محصولات آن به طور مداوم بهروزرسانی میشوند. با این حال، قیمت آن در حال آزمایش است. این موضوع همچنین یک مشکل رایج برای سایر پروژههای AI+Crypto از نظر سرمایهگذاری است، به این معنا که در کوتاه مدت توجه و ورود سرمایه بیش از حد دریافت میکنند و باعث ایجاد عدم تطابق بین ارزش بازار و ارزش ذاتی محصول میشوند. ممکن است اکنون مدت زمان نسبتاً طولانی طول بکشد تا اصلاح شود. رابط کاربری روان و با کیفیت بالا و سرعت بالای یکپارچهسازی API جدید، کلید تثبیت موقعیت پیشرو آن است.
5.3 استراتژیهای توسعهدهنده و کاربر
نحوه مشارکت در اقتصاد عامل هوش مصنوعی: از مشارکت در دادههای آموزشی تا تقسیم سود استراتژی
در پلتفرمهای DeFi مبتنی بر هوش مصنوعی، دادههای آموزشی برای آموزش مدل هوش مصنوعی بسیار مهم هستند. کاربران و توسعهدهندگان میتوانند با ارائه مجموعهدادههای با کیفیت بالا در اقتصاد عامل هوش مصنوعی شرکت کنند.
یک مورد ساده از اقتصاد هوش مصنوعی به شرح زیر است، با بازاری متشکل از کاربران، ارائهدهندگان استراتژی و توسعهدهندگان:
کاربران: میتوانند دادههای تراکنش خود، دادههای رفتار بازار و حتی دادههای قیمت دارایی را ارائه دهند. این دادهها میتوانند به مدلهای هوش مصنوعی کمک کنند تا روند بازار، نوسانات قیمت و عوامل ریسک را بهتر درک کنند و قابلیتهای پیشبینی و اثربخشی معاملات خود را بهبود بخشند. کاربران به عنوان مشارکتکنندگان داده، معمولاً بر اساس کمیت و کیفیت دادههایی که ارائه میدهند، پاداش یا تقسیم سود دریافت میکنند و پاداشهای توکنی به دست میآورند.
ارائهدهندگان استراتژی: میتوانند با به اشتراک گذاشتن یا فروش استراتژیهای خود در پلتفرم، سهمی از سود حاصل از اجرای استراتژی را به دست آورند. عوامل هوش مصنوعی میتوانند از طریق معاملات خودکار، آربیتراژ، استخراج نقدینگی و سایر استراتژیها سود کسب کنند.
توسعهدهندگان: میتوانند پلتفرمهای عامل استراتژی هوش مصنوعی ایجاد کرده و این استراتژیها را از طریق عوامل هوش مصنوعی پیادهسازی کنند. توسعهدهندگان میتوانند درآمد کارمزد کسب کنند و یک اکوسیستم چند برد ایجاد کنند.
پوشش ریسک کاربران عادی: راهنمای بقا در DeFi تحت دستکاری هوش مصنوعی
کاربران عادی، اگرچه اطلاعات و منابع در دسترس محدودی دارند، اما همچنان میتوانند از طریق روشهای عملی، برخی از خطرات را کاهش دهند.
سرمایهگذاری متنوع:
یک استراتژی کاهش ریسک همهمنظوره، کاربران عادی میتوانند از تمرکز تمام داراییهای خود در یک پروتکل DeFi واحد اجتناب کنند. یک سیستم هوش مصنوعی ممکن است قیمت یک بازار DeFi را در یک جهت خاص سوق دهد، و اگر سرمایهگذاری یک کاربر کاملاً به یک پلتفرم DeFi واحد وابسته باشد، ممکن است در مدت زمان کوتاهی ضررهای بزرگی را تجربه کند. سرمایهگذاری متنوع میتواند به طور موثر ریسک را گسترش دهد و ضررهای احتمالی را در صورت شکست یک استراتژی واحد کاهش دهد.
استفاده از ابزارهای نظارت هوش مصنوعی برای ارزیابی ریسک:
کاربران عادی میتوانند از ابزارهای نظارت هوش مصنوعی که در بازار عرضه شدهاند برای ارزیابی و نظارت بر ریسک در زمان واقعی استفاده کنند. بسیاری از پلتفرمهای شخص ثالث ابزارهای ارزیابی ریسک مبتنی بر هوش مصنوعی را ارائه میدهند که میتوانند با تجزیه و تحلیل دادههای بازار و شرایط دارایی کاربر، به کاربران در شناسایی خطرات احتمالی و انجام تنظیمات کمک کنند. به عنوان مثال، برخی از نظارتها میتوانند به سرعت ناهنجاریهای بازار، فروش در مقیاس بزرگ، خرید و سایر رفتارها را تشخیص دهند و به کاربران اجازه دهند تا خطرات احتمالی را شناسایی کنند.