حکمرانی الگوریتم شامل قوانین و شیوه‌های ساخت و استفاده از الگوریتم‌های فناوری‌های به کار رفته در هوش مصنوعی می‌شود که برای هدفی خاص طراحی شده‌اند. حکمرانی صرفاً یک منشور یا مجموعه‌ای از اصول اخلاقی نیست، بلکه مبتنی‌بر تمام اقداماتی است که باید انجام شود، تا اطمینان حاصل گردد که الگوریتم مدنظر به درستی کار می‌کند و از هرگونه ارتکاب اشتباه مانند تبعیض تکنولوژیک یا عدم انطباق با قوانین، مصون است. اجرای قانون و ارزیابی انطباق دائمی الگوریتم ‌ها نیازمند یک سیستم قضایی است.

به عقیده کارشناسان، حکمرانی الگوریتمی باید میان‌رشته‌ای و دربرگیرنده علوم مختلفی مانند جامعه‌شناسی، سیاست و مردم‌شناسی باشد. همچنین باید ذی‌نفعان مختلف یک پروژه، از جمله کاربران نهایی را به یکدیگر مرتبط کند و سطح درک آن‌ها از فناوری و علم الگوریتم و همچنین حقوق، تعهدات و وظایف آن‌ها در رابطه با الگوریتم مدنظر را در بربگیرد. حکمرانی الگوریتمی باید دو رویکرد هم‌زمان را فعال کند:

  • رویکرد تاریخی از بالا به پایین، که کمیته راهبری یا مدیران پروژه را قادر می‌سازد، بهترین شیوه‌ها و کاربرد آن‌ها را اعمال و اجرا کنند؛
  • رویکرد پایین به بالا که کارکنان شرکت یا کاربر نهایی را قادر می‌سازد، به صورت مستقیم (از طریق مشارکت عملی و ملموس در پروژه) یا غیرمستقیم (مثلاً با جمع‌آوری بازخورد کاربر) در اجرای روان پروژه، از راه‌اندازی و توسعه تا استقرار، مشارکت داشته باشند.

در نهایت، حکمرانی الگوریتم های هوش مصنوعی باید به گونه‌ای اجرا و ارزیابی شود که بتواند، برای همه ذی‌نفعان طراحی، تهیه یا استفاده از الگوریتم قابل درک باشد. لازم به ذکر است، حتی خود کد منبعی که الگوریتم در آن برنامه‌ریزی شده است نیز باید ذیل حکمرانی الگوریتمی قرار بگیرد. به طور کلی باید کد منبع، تمام مجموعه داده‌های استفاده شده و معیارهای مورد استفاده برای آموزش الگوریتم های هوش مصنوعی شفاف شوند.

در حال حاضر، جدای از منشورهای اخلاقی توسعه هوش مصنوعی قابل اتکا، تعداد کمی از ذی‌نفعان، مدل حکمرانی الگوریتمی خود را تنظیم کرده‌اند. برخی تلاش‌ها در گذشته ناموفق بوده‌اند به عنوان مثال، کمیته اخلاق هوش مصنوعی گوگل در سال ۲۰۱۹ متوقف شد و نخستین منشور هوش مصنوعی مایکروسافت در سال ۲۰۱۷ پذیرفته نشد. علاوه بر این، در مقطع کنونی، تعداد بسیار محدودی از مطالعات آکادمیک به ارائه مدل‌های حکمرانی الگوریتمی اختصاص دارند و بیشتر آن‌ها درباره داده‌ها یا به طور کلی در خصوص اهمیت اخلاق در هوش مصنوعی هستند.

به نظر می‌رسد که اقدامات بالادستی حقوقی در زمینه حکمرانی الگوریتمی برای ذی‌نفعان ضروری است. به عبارت دیگر، پیشرو بودن در قانون‌گذاری، مزایای زیادی دارد که پیش‌بینی پیامدهای اخلاقی فناوری های جدید ، جلوگیری از دعاوی پرهزینه ، اجتناب از لطمه به شهرت و خوشنامی ، افزایش اعتماد ذی‌نفعان ، تمایز از رقبا با افزایش جذابیت و ایفای نقش فعال در تعامل با نهادهای قانون‌گذار اروپایی ، از جمله آن‌هاست.

مدل‌های بسیاری وجود دارند که می‌توانند، با صنعت ، نحوه فعالیت شرکت‌ها و یک نوع پروژه الگوریتمی خاص سازگار شوند. متخصصان بر این باور هستند که به جای اتخاذ یک مدل باید ساختاری کلی برای تشکیل پایه‌های حکمرانی اتخاذ شود. این ساختار باید شامل چندین مرحله از یک پروژه برای طراحی یا تهیه یک الگوریتم، از مرحله ایده‌پردازی تا مرحله به‎‌کارگیری باشد. همچنین مراحل تجاری و مشخصات فنی، قدرت محاسباتی و مصرف انرژی در آموزش الگوریتم و اجرای آن را دربرگیرد. همه مراحل جمع‌آوری داده‌ها، برنامه‌نویسی رایانه‌ای و آموزش الگوریتمی، اعتبارسنجی و استقرار الگوریتم و آزمایش‌های پس از استفاده، ارزیابی و ارتقای سطح درک فنی نیز باید توسط ذی‌نفعان لحاظ گردد. در ارزیابی خطرات هوش مصنوعی و مخاطرات علمی، فنی، اخلاقی و اعتباری مرتبط با الگوریتم‌ها ، باید میزان مخاطرات متناسب با پیشرفت فرآیند حکمرانی محاسبه شود. منشورها و اصول خوب باید ذیل ساختاری که حکمرانی الگوریتمی بر آن‌ها استوار است، تهیه شوند تا هرگونه ابهام و نکته درباره پروژه را پوشش دهند. در چنین شرایطی، وجود یک کمیته اخلاق داخلی یا خارجی می‌تواند، به افزایش اطمینان نسبت به اجرای صحیح فرآیند حکمرانی الگوریتمی کمک کند. محاسبات قابل تبیین، روش‌های آماری مورد استفاده برای کنترل یا استخراج منطق عملیاتی الگوریتم، باید به صورت سیستماتیک پیش (روی مجموعه‌های داده)، در حین و پس از آموزش مدل‌ها اعمال شوند. این محاسبات خطر بروز خطاها، باگ‌ها یا سوگیری‌های الگوریتمی را در مبدأ تبعیض‌های فناورانه به‌طور چشمگیری کاهش می‌دهند.

دکتر عباس خداپرست