چشمانداز نظارتی برای هوش مصنوعی در اوایل سال ۲۰۲۵ به طور قابل توجهی تکامل یافته است:
۱. اجرای قانون هوش مصنوعی اتحادیه اروپا: پس از تصویب آن در اواخر سال ۲۰۲۴، اتحادیه اروپا دستورالعملهای اجرایی را با یک برنامه انطباق چند مرحلهای بر اساس دستهبندی ریسک منتشر کرده است. سیستمهای هوش مصنوعی پرخطر باید تا اکتبر ۲۰۲۵، در حالی که ارائه دهندگان هوش مصنوعی عمومی تا مارس ۲۰۲۶ مهلت دارند.
۲. چارچوب فدرال ایالات متحده: دستور اجرایی مارس ۲۰۲۵ در مورد توسعه ایمن و مسئولانه هوش مصنوعی، مسئولیتهای نظارتی را در چندین آژانس تعیین کرد و موسسه ملی استانداردها و فناوری (NIST) رهبری استانداردهای فنی را بر عهده گرفت.
۳. استانداردهای بینالمللی: ISO/IEC سه استاندارد جدید برای حاکمیت هوش مصنوعی (ISO/IEC 42001) و مدیریت ریسک (ISO/IEC 23894 و 42002) منتشر کرده است که چارچوبهای شناخته شده بینالمللی را برای اجرای مسئولانه هوش مصنوعی ارائه میدهند.
منبع: IDC