حکمرانی الگوریتمی
حکمرانی الگوریتم شامل قوانین و شیوههای ساخت و استفاده از الگوریتمهای فناوریهای به کار رفته در هوش مصنوعی میشود که برای هدفی خاص طراحی شدهاند. حکمرانی صرفاً یک منشور یا مجموعهای از اصول اخلاقی نیست، بلکه مبتنیبر تمام اقداماتی است که باید انجام شود، تا اطمینان حاصل گردد که الگوریتم مدنظر به درستی کار میکند و از هرگونه ارتکاب اشتباه مانند تبعیض تکنولوژیک یا عدم انطباق با قوانین، مصون است. اجرای قانون و ارزیابی انطباق دائمی الگوریتم ها نیازمند یک سیستم قضایی است.
به عقیده کارشناسان، حکمرانی الگوریتمی باید میانرشتهای و دربرگیرنده علوم مختلفی مانند جامعهشناسی، سیاست و مردمشناسی باشد. همچنین باید ذینفعان مختلف یک پروژه، از جمله کاربران نهایی را به یکدیگر مرتبط کند و سطح درک آنها از فناوری و علم الگوریتم و همچنین حقوق، تعهدات و وظایف آنها در رابطه با الگوریتم مدنظر را در بربگیرد. حکمرانی الگوریتمی باید دو رویکرد همزمان را فعال کند:
- رویکرد تاریخی از بالا به پایین، که کمیته راهبری یا مدیران پروژه را قادر میسازد، بهترین شیوهها و کاربرد آنها را اعمال و اجرا کنند؛
- رویکرد پایین به بالا که کارکنان شرکت یا کاربر نهایی را قادر میسازد، به صورت مستقیم (از طریق مشارکت عملی و ملموس در پروژه) یا غیرمستقیم (مثلاً با جمعآوری بازخورد کاربر) در اجرای روان پروژه، از راهاندازی و توسعه تا استقرار، مشارکت داشته باشند.
در نهایت، حکمرانی الگوریتم های هوش مصنوعی باید به گونهای اجرا و ارزیابی شود که بتواند، برای همه ذینفعان طراحی، تهیه یا استفاده از الگوریتم قابل درک باشد. لازم به ذکر است، حتی خود کد منبعی که الگوریتم در آن برنامهریزی شده است نیز باید ذیل حکمرانی الگوریتمی قرار بگیرد. به طور کلی باید کد منبع، تمام مجموعه دادههای استفاده شده و معیارهای مورد استفاده برای آموزش الگوریتم های هوش مصنوعی شفاف شوند.
در حال حاضر، جدای از منشورهای اخلاقی توسعه هوش مصنوعی قابل اتکا، تعداد کمی از ذینفعان، مدل حکمرانی الگوریتمی خود را تنظیم کردهاند. برخی تلاشها در گذشته ناموفق بودهاند به عنوان مثال، کمیته اخلاق هوش مصنوعی گوگل در سال ۲۰۱۹ متوقف شد و نخستین منشور هوش مصنوعی مایکروسافت در سال ۲۰۱۷ پذیرفته نشد. علاوه بر این، در مقطع کنونی، تعداد بسیار محدودی از مطالعات آکادمیک به ارائه مدلهای حکمرانی الگوریتمی اختصاص دارند و بیشتر آنها درباره دادهها یا به طور کلی در خصوص اهمیت اخلاق در هوش مصنوعی هستند.
به نظر میرسد که اقدامات بالادستی حقوقی در زمینه حکمرانی الگوریتمی برای ذینفعان ضروری است. به عبارت دیگر، پیشرو بودن در قانونگذاری، مزایای زیادی دارد که پیشبینی پیامدهای اخلاقی فناوری های جدید ، جلوگیری از دعاوی پرهزینه ، اجتناب از لطمه به شهرت و خوشنامی ، افزایش اعتماد ذینفعان ، تمایز از رقبا با افزایش جذابیت و ایفای نقش فعال در تعامل با نهادهای قانونگذار اروپایی ، از جمله آنهاست.
مدلهای بسیاری وجود دارند که میتوانند، با صنعت ، نحوه فعالیت شرکتها و یک نوع پروژه الگوریتمی خاص سازگار شوند. متخصصان بر این باور هستند که به جای اتخاذ یک مدل باید ساختاری کلی برای تشکیل پایههای حکمرانی اتخاذ شود. این ساختار باید شامل چندین مرحله از یک پروژه برای طراحی یا تهیه یک الگوریتم، از مرحله ایدهپردازی تا مرحله بهکارگیری باشد. همچنین مراحل تجاری و مشخصات فنی، قدرت محاسباتی و مصرف انرژی در آموزش الگوریتم و اجرای آن را دربرگیرد. همه مراحل جمعآوری دادهها، برنامهنویسی رایانهای و آموزش الگوریتمی، اعتبارسنجی و استقرار الگوریتم و آزمایشهای پس از استفاده، ارزیابی و ارتقای سطح درک فنی نیز باید توسط ذینفعان لحاظ گردد. در ارزیابی خطرات هوش مصنوعی و مخاطرات علمی، فنی، اخلاقی و اعتباری مرتبط با الگوریتمها ، باید میزان مخاطرات متناسب با پیشرفت فرآیند حکمرانی محاسبه شود. منشورها و اصول خوب باید ذیل ساختاری که حکمرانی الگوریتمی بر آنها استوار است، تهیه شوند تا هرگونه ابهام و نکته درباره پروژه را پوشش دهند. در چنین شرایطی، وجود یک کمیته اخلاق داخلی یا خارجی میتواند، به افزایش اطمینان نسبت به اجرای صحیح فرآیند حکمرانی الگوریتمی کمک کند. محاسبات قابل تبیین، روشهای آماری مورد استفاده برای کنترل یا استخراج منطق عملیاتی الگوریتم، باید به صورت سیستماتیک پیش (روی مجموعههای داده)، در حین و پس از آموزش مدلها اعمال شوند. این محاسبات خطر بروز خطاها، باگها یا سوگیریهای الگوریتمی را در مبدأ تبعیضهای فناورانه بهطور چشمگیری کاهش میدهند.
دکتر عباس خداپرست