امپراتوری هوش مصنوعی: فراتر از نوآوری، در قلمرو حکمرانی و قدرت
چکیده
این مقاله به بررسی مفهوم “امپراتوری هوش مصنوعی” میپردازد، ایدهای که توسط کارن هاو در کتابش مطرح شده و به این موضوع اشاره دارد که شرکتهای پیشرو در زمینه هوش مصنوعی، بهویژه OpenAI، ویژگیهای امپراتوریهای کهن را به نمایش میگذارند. مقاله با تشریح پیدایش و تحول OpenAI، از یک سازمان غیرانتفاعی با هدف “سودمندی برای بشریت” به یک نهاد انتفاعی با ساختار پیچیده، آغاز میشود. سپس، چهار ستون اصلی امپراتوری هوش مصنوعی – ادعای منابع، استثمار نیروی کار، انحصار تولید دانش، و روایت “امپراتوری خوب در برابر امپراتوری شر” – مورد تحلیل قرار میگیرد. بحران حکمرانی در OpenAI، شامل برکناری سم آلتمن و نبرد ایدئولوژیک میان “بومرها” و “دومرها”، به عنوان نمونهای از چالشهای درونی این “امپراتوری” بررسی میشود. پیامدهای رویکرد “مقیاس به هر قیمت” بر محیط زیست و دموکراسی نیز از نکات کلیدی است. در نهایت، مقاله به راهحلهای پیشنهادی برای توسعه اخلاقی و مشارکتی هوش مصنوعی، شامل شفافیت و نقش نهادهای مستقل، میپردازد و امیدها و ترسها برای آینده این فناوری را بازگو میکند. این تحلیل عمیق، درکی جامع از چالشهای حکمرانی، اخلاقی و اجتماعی مرتبط با هوش مصنوعی در عصر حاضر ارائه میدهد.
مقدمه
هوش مصنوعی (AI) و به ویژه هوش مصنوعی عمومی (AGI)، در سالهای اخیر به داغترین موضوع بحث در سیلیکون ولی، ایالات متحده و سراسر جهان تبدیل شده است. این فناوری، نه تنها نویدبخش پیشرفتهای بیسابقه است، بلکه نگرانیهای عمیقی را در مورد حکمرانی، اخلاق و پیامدهای اجتماعی آن برانگیخته است. در مرکز این مباحث، شرکتهایی نظیر OpenAI قرار دارند که با سرعت خیرهکنندهای در حال پیشبرد مرزهای این فناوری هستند. با این حال، همانطور که کارن هاو، متخصص برجسته در این حوزه، در کتاب خود و در صحبتهایش مطرح میکند، شیوه توسعه و استقرار این فناوریها توسط شرکتهای بزرگ، سوالات اساسی را در مورد ماهیت قدرت و کنترل در عصر دیجیتال مطرح میسازد. هاو این شرکتها را نه صرفاً به عنوان بازیگران صنعتی، بلکه به مثابه “امپراتوریهای هوش مصنوعی” توصیف میکند، که ویژگیهای مشابهی با امپراتوریهای کهن دارند و قواعد و منابع را به نفع خود بازتعریف میکنند.
این مقاله با الهام از بینشهای ارائه شده در بحثها و گزارشهای کارن هاو و ایوان اپستین، به تحلیل عمیق “امپراتوری هوش مصنوعی” میپردازد. ما بررسی خواهیم کرد که چگونه شرکتهایی مانند OpenAI در مسیر تبدیل شدن از نهادهای غیرانتفاعی با مأموریتهای والا به قدرتهای انتفاعی عظیم حرکت کردهاند. سپس، با تمرکز بر چهار ویژگی کلیدی امپراتوریها که توسط هاو مطرح شده است – ادعای منابع، استثمار نیروی کار، انحصار تولید دانش، و ساخت روایت – ابعاد مختلف این پدیده را روشن خواهیم ساخت. همچنین، به چالشهای حکمرانی داخلی در OpenAI، از جمله بحران برکناری سم آلتمن و تقابل ایدئولوژیک “بومرها” و “دومرها” خواهیم پرداخت، که نشاندهنده پیچیدگیهای داخلی این “امپراتوریها” است. پیامدهای رویکرد “مقیاس به هر قیمت” بر محیط زیست و تهدیدات آن بر دموکراسی، از جمله نگرانیهای محوری این تحلیل خواهد بود. در نهایت، با طرح پیشنهادهایی برای توسعه مشارکتی و اخلاقی هوش مصنوعی، و نگاهی به امیدها و ترسها برای آینده این فناوری، به دنبال ارائه چارچوبی برای درک بهتر این پدیده متحول کننده و نقش ما در شکلدهی به آن خواهیم بود. این مقاله با هدف افزایش درک عمومی از این موضوع حیاتی، و تشویق به گفتمان گستردهتر در مورد آیندهای که هوش مصنوعی برای بشریت رقم خواهد زد، نگاشته شده است.
ریشههای امپراتوری: داستان شکلگیری OpenAI
H3: از ایده تا واقعیت: بنیانگذاری OpenAI با مأموریت عمومی
داستان پیدایش OpenAI نمونهای برجسته از آرمانگرایی آغازین و پیچیدگیهای دنیای واقعی است که میتواند به درک چگونگی شکلگیری “امپراتوریهای هوش مصنوعی” کمک کند. OpenAI در ابتدا به عنوان یک سازمان غیرانتفاعی توسط سم آلتمن و ایلان ماسک بنیانگذاری شد. ایده اولیه از آلتمن، در دوران ریاستش بر شرکت Y Combinator، نشأت گرفت. او هوش مصنوعی را به عنوان موج بعدی فناوری شناسایی کرده بود و قصد داشت یک آزمایشگاه هوش مصنوعی درون YC ایجاد کند. آلتمن دریافت که برای جذب نخبگان و متخصصان برتر هوش مصنوعی، به اعتبار و نامآوری در این حوزه نیاز دارد، که خودش فاقد آن بود. اینجاست که نقش ایلان ماسک پررنگ میشود. ماسک در آن زمان به شدت در حال کمپین عمومی در مورد خطرات بالقوه هوش مصنوعی بود و مدام هشدار میداد که این فناوری میتواند بشریت را نابود کند و آن را به “آزاد کردن شیطان” تشبیه میکرد. او به شدت نگران توسعه هوش مصنوعی در محیطهای انتفاعی بود و گوگل را به دلیل انحصار استعدادهای هوش مصنوعی هدف قرار میداد.
آلتمن با بهرهگیری از این نگرانیها و دیدگاههای ماسک، او را به مشارکت در تلاش خود برای ایجاد یک سازمان غیرانتفاعی متقاعد کرد. آلتمن به ماسک گفت که نگرانیهای او را درک میکند و پیشنهاد داد یک سازمان غیرانتفاعی برای مقابله با گوگل ایجاد شود، سازمانی که بدون هیچگونه هدف انتفاعی، هوش مصنوعی را صرفاً برای منافع عمومی توسعه دهد. ماسک از این ایده استقبال کرد و به این پروژه پیوست. با پیوستن ماسک، آنها توانستند محققان برجسته هوش مصنوعی را جذب کنند که بسیاری از آنها دقیقاً به دلیل حضور ماسک به پروژه ملحق شدند. این آغاز مسیر OpenAI بود، با مأموریتی روشن و ظاهراً غیرانتفاعی: توسعه هوش مصنوعی برای منفعت عمومی، نه سود مالی.
H3: تحول ساختاری: از غیرانتفاعی به مدل “سود محدود”
با این حال، این آرمانگرایی دیری نپایید که با واقعیتهای توسعه فناوریهای مقیاسپذیر و پرهزینه روبرو شد. حدود یک سال و نیم پس از تأسیس، در سال ۲۰۱۷، OpenAI پیشرفت قابل توجهی نکرده بود. آنها در ابتدا بیشتر یک ایده کلی داشتند تا یک برنامه عملیاتی مشخص برای رسیدن به رهبری در توسعه هوش مصنوعی. در این مرحله، آنها به رویکردی مشخص برای توسعه هوش مصنوعی دست یافتند: مقیاسگذاری شدید فناوریهای موجود. این رویکرد شامل استفاده از حجم بیسابقهای از دادهها برای آموزش شبکههای عصبی (neural networks)، و بهرهگیری از ابرکامپیوترهای بزرگتر از هر آنچه قبلاً ساخته شده بود، با این امید که سیستمهای قدرتمندتری حاصل شود. فرض بر این بود که با انجام این کار سریعتر از رقبا، میتوانند به جایگاه شماره یک در این حوزه دست یابند.
اما این رویکرد جدید، نیاز به سرمایه بسیار هنگفت داشت. ناگهان، گلوگاه از “جذب استعداد” به “جذب سرمایه” تغییر کرد. OpenAI متوجه شد که ساختار غیرانتفاعی آنها دیگر برای جذب سرمایه دهها میلیارد دلاری که پیشبینی میکردند، مناسب نیست. در اینجاست که یکی از بحثبرانگیزترین تصمیمات ساختاری این شرکت اتخاذ شد: آنها یک شرکت انتفاعی را در دل سازمان غیرانتفاعی خود جای دادند. این شرکت انتفاعی به عنوان یک “ابزار جمعآوری سرمایه” عمل میکرد تا بتواند سرمایه از سرمایهگذاران خطرپذیر (VC) را جذب کند و به آنها نوعی بازگشت سرمایه را وعده دهد.
این مدل جدید، در ابتدا به عنوان “سود محدود” (capped profit) شناخته شد. بدین معنا که بازگشت سرمایه برای اولین دسته از سرمایهگذاران اولیه، به ۱۰۰ برابر سرمایهگذاری آنها محدود میشد. سپس این سقف به ۲۰ برابر و بعداً به ۶ برابر کاهش یافت، اما نیت اصلی این بود که بازدهی سرمایه به سرمایهگذاران اولیه تضمین شود. این ساختار بسیار غیرمعمول بود، زیرا معمولاً استارتاپها ساختار غیرانتفاعی ندارند یا از یک غیرانتفاعی به یک انتفاعی تبدیل نمیشوند. این تغییر ساختار، بحثهای زیادی را در مورد حکمرانی شرکتی (corporate governance) و چگونگی همزیستی اهداف انتفاعی و غیرانتفاعی در یک سازمان برانگیخت.
H3: نبرد بر سر کنترل: جدال ماسک و آلتمن
تغییر ساختار به یک نهاد انتفاعی، بلافاصله منجر به درگیریهای داخلی بر سر رهبری و کنترل شد، به ویژه بین دو بنیانگذار اصلی، ایلان ماسک و سم آلتمن. در ابتدا، زمانی که ایده ایجاد یک نهاد انتفاعی مطرح شد، قرار نبود که این نهاد حتماً در دل سازمان غیرانتفاعی قرار گیرد؛ آنها به دنبال تبدیل کل مجموعه به یک “شرکت با منافع عمومی” (public benefit corporation) بودند. اما مشکل اصلی در این مرحله، توافق بر سر اینکه چه کسی مدیرعامل (CEO) این نهاد جدید خواهد بود، پیش آمد. هم آلتمن و هم ماسک هر دو تمایل داشتند مدیرعامل باشند و نتوانستند به توافق برسند.
نکته جالب توجه این است که دو بنیانگذار دیگر، گرگ براکمن (مدیر ارشد فناوری) و ایلیا ساتسگوِر (دانشمند ارشد)، در ابتدا ماسک را انتخاب کردند. آنها معتقد بودند که ماسک از شهرت، نفوذ، قدرت استراتژیک و وضوح بیشتری برخوردار است تا OpenAI را در مسیری که به آن اعتقاد داشتند، هدایت کند. اما آلتمن با استفاده از رابطه شخصی خود با براکمن، او را متقاعد کرد. آلتمن از براکمن پرسید: “آیا واقعاً فکر میکنی ماسک قابل اعتماد است؟ آیا واقعاً فکر میکنی اگر هوش مصنوعی این فناوری قدرتمند است، باید توسط این فرد دیگر کنترل شود؟ چطور میتوانی این کار را با من، دوست نزدیکت، بکنی؟”. براکمن به سرعت متقاعد شد و سپس ساتسگوِر را نیز که در آن زمان به او نزدیک بود، متقاعد کرد. در نهایت، ساتسگوِر نیز تصمیم گرفت که آلتمن به جای ماسک مدیرعامل شود.
این تصمیم نقطه عطفی در تاریخ OpenAI بود و منجر به خروج ایلان ماسک از پروژه شد. ماسک گفت: “اگر من مدیرعامل نباشم، اگر کنترل را در دست نداشته باشم و حالا این شرکت از غیرانتفاعی به انتفاعی تبدیل میشود، من خارج خواهم شد”. او از سمت رئیس مشترک کنار رفت، اما سالها بعد نیز نقش غیرمستقیمی داشت؛ او یکی از معاونان خود از نورالینک، سیوبهان زیلیس، را در هیئت مدیره OpenAI قرار داد تا همچنان اطلاعاتی به او برساند. این جدال بر سر کنترل نشاندهنده آغاز مسیر پیچیدهای بود که در آن قدرت و منافع شخصی، در کنار اهداف بلندپروازانه فناورانه، نقش محوری ایفا کردند.
مفهوم “امپراتوری هوش مصنوعی”
کارن هاو، در کتاب خود، شرکتهای فعال در حوزه هوش مصنوعی، مانند OpenAI، را نه تنها به عنوان شرکتهای فناوری، بلکه به عنوان “امپراتوریهای جدید” توصیف میکند. او استدلال میکند که این “امپراتوریهای هوش مصنوعی” دارای ویژگیهایی مشابه امپراتوریهای کهن هستند، که از جمله آنها میتوان به ادعای مالکیت بر منابعی که متعلق به آنها نیست، استثمار نیروی کار، انحصار تولید دانش، و ساخت روایتهایی برای توجیه اقدامات خود اشاره کرد. این مفهوم چارچوبی قدرتمند برای درک دینامیکهای قدرت و کنترل در اکوسیستم هوش مصنوعی امروز ارائه میدهد.
H3: ادعای منابع: دادهها به عنوان قلمرو جدید
یکی از برجستهترین ویژگیهای “امپراتوریهای هوش مصنوعی” که هاو به آن اشاره میکند، ادعای مالکیت بر منابعی است که متعلق به آنها نیست. این منابع در عصر دیجیتال، عمدتاً به دادهها اشاره دارد. شرکتهای هوش مصنوعی مقادیر عظیمی از دادهها را از اینترنت “اسکرپ” (scrape) میکنند. استدلال آنها این است که این دادهها به صورت عمومی در دسترس هستند و بنابراین، آنها حق دارند از آن استفاده کنند.
اما هاو این استدلال را به چالش میکشد. او معتقد است بسیاری از افرادی که اطلاعات خود را در اینترنت منتشر کردهاند، این کار را با رضایت آگاهانه برای استفاده از دادههایشان در آموزش مدلهای هوش مصنوعی انجام ندادهاند؛ مدلهایی که در نهایت ممکن است فرصتهای اقتصادی آینده خود آنها را محدود کند. این عمل، شباهت زیادی به تصرف زمینها و منابع طبیعی توسط امپراتوریهای کهن دارد، با این تفاوت که در اینجا “سرزمین” در واقع “داده” است. موضوع حق مالکیت فکری و حق انتخاب (opt-in یا opt-out) برای استفاده از محتوای افراد در آموزش مدلها، به یک چالش حقوقی و اخلاقی جدی تبدیل شده است. نویسندگان و هنرمندان زیادی در حال حاضر علیه این شرکتها شکایت کردهاند تا مالکیت خود را بر دادههایشان پس بگیرند. هاو استدلال میکند که این مشکل میتوانست با گفتگوی عمومی در مورد اینکه چه دادههایی باید برای آموزش مدلها استفاده شود، کاهش یابد. به عنوان مثال، تصمیم OpenAI برای آموزش مدلهای تولید تصویر خود بر روی محتوای پورنوگرافی، با این استدلال که “نماینده تجربه انسانی است”، پیامدهای گستردهای داشته است، از جمله توانایی این مدلها در تولید مواد سوءاستفاده جنسی از کودکان. این تصمیمات بدون مشورت با عموم یا حتی متخصصان خارج از حوزههای خاص خودشان گرفته شدهاند.
H3: استثمار نیروی کار: پنهان و آشکار
ویژگی دوم “امپراتوریهای هوش مصنوعی”، استثمار نیروی کار است. این استثمار به دو شکل اصلی بروز میکند:
- استثمار در زنجیره تأمین توسعه هوش مصنوعی: شرکتهایی مانند OpenAI، کارگران قراردادی در سراسر جهان، به ویژه در کشورهای جنوب جهانی (Global South)، را برای انجام وظایفی مانند “برچسبگذاری داده” (data annotation)، “اعتدال محتوا” (content moderation) و سایر وظایف مرتبط با آموزش و بهبود مدلهای هوش مصنوعی استخدام میکنند. این کارگران در شرایط بسیار استثمارگرانه و روانشناختی سمی، با دستمزدهایی در حدود ۲ دلار در ساعت، کارهایی را انجام میدهند که برای سلامت روان آنها مضر است. این لایههای پنهان توسعه هوش مصنوعی، مشابه کار اجباری و استثمار در امپراتوریهای کهن، از دید عموم پنهان میماند.
- هدف نهایی هوش مصنوعی: خودکارسازی نیروی کار: علاوه بر استثمار در فرآیند توسعه، هدف صریح OpenAI برای AGI (هوش مصنوعی عمومی)، ایجاد “سیستمهای بسیار خودمختار” است که در “اغلب کارهای دارای ارزش اقتصادی، بهتر از انسانها عمل کنند”. این تعریف به وضوح نشان میدهد که نیت آنها ایجاد ماشینهایی است که نیروی کار انسانی را خودکارسازی کنند. بنابراین، هم فرآیند توسعه هوش مصنوعی (زنجیره تأمین) و هم نتیجه نهایی آن (ماشینهای خودکارساز) به “استثمار نیروی کار” منجر میشود.
H3: انحصار تولید دانش: کنترل روایت و پژوهش
ویژگی سوم “امپراتوریها”، انحصار تولید دانش است. در طول ده سال گذشته، تغییر چشمگیری در توزیع محققان هوش مصنوعی مشاهده شده است. پیش از این، اکثر محققان هوش مصنوعی در محیطهای آکادمیک یا موسسات مستقل فعالیت میکردند. اما اکنون، بخش عمدهای از این محققان، یا مستقیماً برای شرکتهای بزرگ هوش مصنوعی کار میکنند، یا توسط آنها تأمین مالی میشوند. این پدیده به معنای آن است که بخش عمدهای از تحقیقات هوش مصنوعی که “بستر درک عمومی از چگونگی عملکرد این فناوری و محدودیتهای آن” را تشکیل میدهد، از فیلتر “آنچه برای شرکتها خوب است و آنچه خوب نیست” عبور میکند. دانش تولید شده، به نفع “امپراتوری” فیلتر و کنترل میشود.
این انحصار به ویژه در بحث “مدلهای منبع باز در مقابل منبع بسته” (open-source vs. closed-source) هوش مصنوعی آشکار میشود. کارن هاو به وضوح معتقد است که برای از بین بردن این انحصار دانش، نیاز به مدلهای “منبع باز” بیشتری داریم. او استدلال میکند که بدون دسترسی به دادههای آموزشی و مدلها، محققان مستقل نمیتوانند به طور دقیق عملکرد مدلها را ارزیابی کنند. این عدم شفافیت، اعتبار ارزیابیهای فعلی مدلهای هوش مصنوعی را زیر سوال میبرد، زیرا مشخص نیست که آیا مدلها صرفاً اطلاعات را حفظ کردهاند یا واقعاً قابلیتهای جدیدی را توسعه دادهاند. به عنوان مثال، هاو به داستانی اشاره میکند که در آن بیل گیتس تحت تاثیر مدلی قرار گرفت که ظاهراً توانسته بود در آزمون زیستشناسی AP نمره کامل بگیرد، اما هاو سوال میکند که آیا مدل صرفاً بر روی دادههای شامل این آزمون آموزش دیده بود یا واقعاً قابلیت استدلال را توسعه داده بود. این کنترل بر دانش و قابلیت ارزیابی مستقل، یکی از پایههای قدرت “امپراتوریهای هوش مصنوعی” است.
H3: روایتسازی: مأموریت تمدنساز و تهدید “دشمن”
آخرین ویژگی امپراتوریها، ساخت روایت است. همیشه یک داستان وجود دارد که بر اساس آن، “امپراتوری ما خوب است” و “امپراتوریهای دیگر بد هستند”. توجیه “امپراتوری خوب” برای “استخراج منابع” و “استثمار نیروی کار” این است که باید به اندازهای قوی شوند تا بتوانند “امپراتوری بد” را شکست دهند. این “امپراتوریهای هوش مصنوعی” خود را “خوب” میدانند زیرا معتقد به یک “مأموریت تمدنساز” هستند: این ایده که در نهایت چیزی را خلق خواهند کرد که “پیشرفت و مدرنیته را برای تمام بشریت” به ارمغان خواهد آورد و به بشریت اجازه خواهد داد تا “شکوفا شود”.
این روایتسازی در مأموریت مبهم OpenAI که “اطمینان از سودمندی AGI برای تمام بشریت” است، کاملاً مشهود است. هاو اشاره میکند که تا به امروز، هیچ توافقی درون OpenAI در مورد معنای واقعی عبارات “اطمینان از”، “AGI چیست” و “سودمندی برای تمام بشریت” وجود ندارد. این ابهام باعث میشود که مأموریت به یک “ابزار روایتسازی برای امپراتوری” تبدیل شود. این مأموریت توسط کارمندان و مدیران بر اساس تصورات خودشان تفسیر و بازتفسیر میشود، و به نوعی “پساعقلانیسازی” برای کارهایی است که در وهله اول میخواستند انجام دهند.
این روایت همچنین در بحثهای ژئوپلیتیکی، به ویژه بین ایالات متحده و چین، نمایان میشود. شرکتهای آمریکایی اغلب از کارت “چه میشود اگر چین…؟” استفاده میکنند تا از هرگونه مقرراتگذاری در داخل کشور جلوگیری کنند. استدلال آنها این است که اگر ما مقررات وضع کنیم، چین برتری پیدا خواهد کرد و نسخه چینی هوش مصنوعی، که به نظر آنها “شرور” است، مسلط خواهد شد. اما هاو این استدلال را به چالش میکشد و میگوید که چین اتفاقاً به شدت هوش مصنوعی را تنظیم میکند، حتی بیشتر از ایالات متحده. او معتقد است که این روایت “امپراتوری خوب در برابر امپراتوری شر” منجر به توسعه فناوریهای دموکراتیکتر نشده، بلکه به فناوریهای اقتدارگراتر منجر شده است، و موجب “فروپاشی آهسته لیبرالیسم در سراسر جهان” به دست شرکتهای سیلیکون ولی شده است. بنابراین، این روایتسازی نه تنها برای توجیه اقدامات داخلی، بلکه برای پیشبرد اهداف ژئوپلیتیکی و جلوگیری از نظارت خارجی نیز به کار میرود.
مأموریت مبهم و بحران حکمرانی OpenAI
مأموریت اولیه OpenAI برای “اطمینان از سودمندی AGI برای تمام بشریت”، هرچند زیبا و آرمانی به نظر میرسید، اما در عمل به دلیل عدم وضوح و تعریف مشخص، به ابزاری برای روایتسازی و توجیه اقدامات مختلف تبدیل شد. این ابهام، در کنار ساختار حکمرانی منحصربهفرد و ایدئولوژیهای متضاد داخلی، در نهایت به بحران برکناری سم آلتمن منجر شد، که نقطه عطفی در تاریخ OpenAI و صنعت هوش مصنوعی بود.
H3: “اطمینان از سودمندی AGI برای تمام بشریت”: مأموریتی بدون تعریف
کارن هاو اشاره میکند که وقتی برای اولین بار شروع به پوشش خبری OpenAI کرد، نسبت به زبان پرطمطراق این شرکت شک داشت. با این حال، او اذعان میکند که “ایده توسعه فناوری برای منفعت تمام بشریت”، اگر به طور جدی دنبال شود، “زیبا” و “آرزویی است که همه باید به آن دست یابند”. اما هاو در کتابش نتیجه میگیرد که این مأموریت خاص OpenAI، “فاقد وضوح و تعریف” است، تا جایی که به یک “ابزار روایتسازی امپراتوری” تبدیل شده است.
به گفته هاو، مأموریت کامل OpenAI این است: “اطمینان از سودمندی AGI برای تمام بشریت”. اما درون خود OpenAI، هیچ توافقی بر سر معنای “اطمینان از”، “AGI چیست” و “سودمندی برای تمام بشریت” وجود ندارد. این یعنی “هیچ توافقی بر سر هیچ بخشی از این مأموریت” وجود ندارد. در نتیجه، مأموریت بارها و بارها توسط کارمندان و مدیران، بر اساس “تصورات خودشان از آنچه میخواهند انجام دهند”، تفسیر و بازتفسیر میشود. هاو این پدیده را “پساعقلانیسازی” (post-rationalization) توصیف میکند، به این معنی که افراد ابتدا کاری را انجام میدهند و سپس آن را با مأموریت کلی “سودمندی برای تمام بشریت” توجیه میکنند. این ابهام، فضای زیادی را برای تعارض منافع و تصمیمگیریهای مبهم فراهم میکند.
H3: برکناری سم آلتمن: نبرد ایدئولوژیک و مسائل شفافیت
بحران برکناری سم آلتمن، مدیرعامل OpenAI، در یک جمعه شب، نقطه اوج این چالشهای حکمرانی و ابهامات بود. این اتفاق واکنش عظیمی را در سیلیکون ولی برانگیخت و بسیاری آن را با برکناری استیو جابز از اپل در سال ۱۹۸۵ مقایسه کردند. هاو توضیح میدهد که دو نیروی اصلی در پشت این بحران هیئت مدیره وجود داشت:
- برخورد ایدئولوژیک شبهمذهبی: این برخورد بین دو جناح در دنیای هوش مصنوعی، به نامهای “بومرها” (Boomers) و “دومرها” (Doomers) رخ داد. “بومرها” اعتقاد دارند که AGI یوتوپیا (آرمانشهر) را به ارمغان خواهد آورد. در مقابل، “دومرها” معتقدند که AGI بشریت را نابود خواهد کرد. هاو هر دو گروه را “دو روی یک سکه” میداند، زیرا هر دو به شدت به ایده “بازآفرینی هوش انسانی” باور دارند، در حالی که هیچ مدرک علمی برای اثبات این امکان وجود ندارد. اعتقاد آنها این است که این فناوری به “تحول تمدنی” منجر خواهد شد و به همین دلیل باید کنترل توسعه آن را در دست بگیرند. در زمان برکناری آلتمن، هیئت مدیره بیشتر “دومرگرا” بود، در حالی که OpenAI و به ویژه آلتمن، رفتارهای “بومرگرا” را از خود نشان میدادند. این تضاد عمیق، نگرانیهای جدی را نه تنها در هیئت مدیره، بلکه در میان مدیران اجرایی نیز ایجاد کرده بود.
- “رابطه سست با حقیقت” سم آلتمن: نیروی دوم، “رابطه سست” آلتمن “با حقیقت” بود. اگرچه بسیاری از مدیران سیلیکون ولی ممکن است در این زمینه شهرت داشته باشند، اما وقتی “خطرات بالقوه تفاوت بین آوردن بشریت به یوتوپیا یا ویرانی” در میان باشد، رفتارهایی که در یک استارتاپ معمولی عادی یا قابل مدیریت به نظر میرسند، “فوقالعاده پیامددار” میشوند.
هیئت مدیره، به صورت تصادفی، متوجه شد که آلتمن در مورد برخی مسائل حقیقت را نمیگوید. یکی از این موارد این بود که صندوق سرمایهگذاری استارتاپی OpenAI (به نام OpenAI Startup Fund)، که برای سرمایهگذاری در استارتاپهایی که از فناوری OpenAI استفاده میکردند تأسیس شده بود، در واقع متعلق به خود آلتمن بود. همچنین، آنها متوجه شدند که آلتمن ادعا میکرد “همه بررسیهای ایمنی فوقالعادهای در شرکت وجود دارد و همه چیز به آرامی پیش میرود”، در حالی که در واقع، “تعدادی از بررسیهای ایمنی نادیده گرفته شده بودند” و آلتمن “مدام سعی در نادیده گرفتن آنها داشت”. علاوه بر این، پس از عرضه ChatGPT، شرکت با “هرج و مرج زیادی” روبرو بود، زیرا مجبور بود با سرعتی بیسابقه مقیاسگذاری کند تا صدها میلیون کاربر جدید را پشتیبانی کند.
همزمان با نگرانیهای هیئت مدیره، دو مدیر اجرایی دیگر، ایلیا ساتسگوِر (که در هیئت مدیره نیز بود) و میرا موراتی (مدیر ارشد فناوری)، به طور مستقل نگرانیهای مشابهی را به هیئت مدیره منتقل کردند. ساتسگوِر، که بیشتر “دومرگرا” بود، این مسائل را بسیار جدی میدانست. میرا موراتی، بدون اینکه لزوماً “دومرگرا” یا “بومرگرا” باشد، به شدت به “حکمرانی شرکتی خوب” اعتقاد داشت و از تلاشهای مداوم آلتمن برای نادیده گرفتن مکانیسمهای حکمرانی نگران بود. ساتسگوِر و موراتی با یکدیگر هماهنگ شدند و نمونههای نگرانیهای خود را جمعآوری کردند. در نهایت، ساتسگوِر به مدیران مستقل هیئت مدیره توصیه کرد که “فکر نمیکنم این مشکل حل شود مگر اینکه سم برود”. هیئت مدیره، پس از بحثهای فشرده و بررسی نگرانیهای خود، با او موافقت کرد و آلتمن را برکنار کرد.
H3: نقش سرمایهگذاران و مایکروسافت: قدرت اقتصاد بر حکمرانی
برکناری سم آلتمن بلافاصله با واکنش شدید سرمایهگذاران و کارمندان مواجه شد. در آن زمان، OpenAI در حال یک پیشنهاد خرید سهام (tender offer) بود که شرکت را ۸۶ میلیارد دلار ارزشگذاری میکرد. کارمندان به سرعت با سم آلتمن همراه شدند، که بخشی از آن به دلیل منافع مالی مرتبط با پیشنهاد سهام بود. این نشان داد که آلتمن روابط گستردهای در سیلیکون ولی داشت.
سرمایهگذاران، از جمله مایکروسافت، در این ماجرا هیچ حق و حقوقی نداشتند که بتوانند دخالت کنند، زیرا هیئت مدیره غیرانتفاعی طبق اساسنامه اختیارات گستردهای داشت. جالب اینجاست که سم آلتمن خودش یکی از کسانی بود که هنگام تأسیس شرکت غیرانتفاعی، این اختیارات گسترده را تدوین کرده بود. با این حال، سرمایهگذاران به وضوح دریافتند که این وضعیت به نفع آنها نیست. کارن هاو اشاره میکند که وقتی در OpenAI سرمایهگذاری میکنید، یک “جعبه بنفش غولپیکر” روی اسناد سرمایهگذاری وجود دارد که میگوید: “سرمایهگذاری شما میتواند در هر لحظه به صفر برسد به دلیل ساختار حکمرانی شرکتی منحصربهفرد ما. این را به عنوان یک کمک مالی تلقی کنید”. اما هاو تاکید میکند که سرمایهگذاران با این فرض عمل نمیکردند، زیرا آلتمن هنگام جذب سرمایه، آن را به عنوان یک “سرمایهگذاری امن” و “بسیار پربازده” معرفی میکرد.
مایکروسافت، به عنوان سرمایهگذار اصلی OpenAI، با هوشیاری فراوان سعی کرد از وضعیت سوءاستفاده کند و تقریباً شرکت را “با قیمت صفر” به دست آورد، با پیشنهاد اینکه کارمندان و رهبران OpenAI به مایکروسافت بپیوندند و کار خود را در آنجا ادامه دهند. در نهایت، فشار عظیم کارمندان و سرمایهگذاران منجر به بازگشت سم آلتمن شد. اما از آن زمان، سرمایهگذاران به شدت فشار آوردهاند تا ساختار شرکت تغییر کند. آنها خواستار این هستند که OpenAI صرفاً یک شرکت انتفاعی باشد و هیئت مدیره انتفاعی داشته باشد که دارای “مسئولیت امانتداری قانونی (fiduciary responsibility) در قبال سهامداران و سرمایهگذاران” باشد. این وضعیت به وضوح نشاندهنده کشمکش بین اصول حکمرانی و منافع اقتصادی در قلب “امپراتوریهای هوش مصنوعی” است.
پیامدهای مقیاس به هر قیمت
یکی از مفاهیم محوری در تحلیل کارن هاو از “امپراتوریهای هوش مصنوعی”، رویکرد “مقیاس به هر قیمت” (scale at all costs) است که ریشه در فلسفه “حرکت سریع و شکستن چیزها” (move fast and break things) در سیلیکون ولی دارد. این رویکرد، در حالی که سرعت رشد و نوآوری را تسریع میکند، اما پیامدهای زیستمحیطی، اجتماعی و حتی دموکراتیک مخربی را به همراه دارد. هاو به شدت نسبت به این مسیر بدبین است و معتقد است که “به خوبی پیش نمیرود”.
H3: فلسفه “حرکت سریع و شکستن چیزها” در عصر هوش مصنوعی
فلسفه “حرکت سریع و شکستن چیزها” دهههاست که در سیلیکون ولی رواج دارد و به شرکتها اجازه میدهد تا با سرعت بینظیری نوآوری کنند و محصولات جدید را بدون نگرانی از پیامدهای احتمالی به بازار عرضه کنند. در حوزه هوش مصنوعی، این رویکرد به معنای “مقیاسگذاری با سرعتی باورنکردنی” است. هاو توضیح میدهد که شرکتهایی مانند OpenAI و دیگران، برای آموزش مدلهای خود به زیرساختهای محاسباتی عظیم و بیسابقهای نیاز دارند. این نیاز به مقیاسگذاری، از نقطه نظر تجاری، برای رقابت و پیشگامی در بازار ضروری تلقی میشود.
اما هاو تاکید میکند که او منتقد همه انواع هوش مصنوعی نیست؛ بسیاری از ابزارهای هوش مصنوعی میتوانند بسیار مفید باشند. انتقاد او مشخصاً به “دیدگاه سیلیکون ولی از توسعه هوش مصنوعی” است که همین “مقیاس به هر قیمت” است. این رویکرد، منجر به تمرکز بر ساخت مدلهای بزرگ و قدرتمند بدون توجه کافی به پیامدهای جانبی آن میشود.
H3: مصرف انرژی و تأثیرات زیستمحیطی: هزینههای پنهان AGI
یکی از مهمترین و نگرانکنندهترین پیامدهای رویکرد “مقیاس به هر قیمت”، مصرف عظیم انرژی و تأثیرات مخرب زیستمحیطی است. هاو به گزارش مککینزی اشاره میکند که پیشبینی کرده است در ۵ سال آینده، نیاز به انرژی جهانی برای پشتیبانی از زیرساختهای محاسباتی هوش مصنوعی، بین ۲ تا ۶ برابر کل تقاضای انرژی ایالت کالیفرنیا افزایش خواهد یافت.
سم آلتمن، در اظهاراتش در سنا، اشاره کرده بود که این نیاز عمدتاً توسط گاز طبیعی تأمین خواهد شد. اما هاو این را به این معنی تعبیر میکند که “قطعا باید بخشی از آن توسط سوختهای فسیلی تأمین شود”. گزارشهای روزنامهنگاران نیز نشان میدهد که توسعه مراکز داده، منجر به “تمدید عمر نیروگاههای زغالسنگ” شده است که قرار بود بازنشسته شوند. به عنوان مثال، هاو اشاره میکند که XAI (شرکت ایلان ماسک) در حال آموزش چتبات Grok خود بر روی ابرکامپیوتری به نام Colossus در ممفیس، تنسی است. این ابرکامپیوتر در حال حاضر توسط “۳۶ نیروگاه گاز متان بدون مجوز” تأمین نیرو میشود که “هزاران تن آلودگی هوا را به جامعه تزریق میکنند”.
این نمونهها به وضوح نشان میدهد که “مقیاس به هر قیمت” به “محیط زیست آسیب میرساند”. اگر این روند را به آینده گسترش دهیم، “به وضعیت نهایی وحشتناکی خواهیم رسید”. این مصرف انرژی و آلودگی، هزینههای پنهانی است که “امپراتوریهای هوش مصنوعی” برای پیشرفت خود به جامعه و کره زمین تحمیل میکنند.
H3: توسعه فناوریهای اقتدارگرا: “از هم پاشیدگی لیبرالیسم”
علاوه بر پیامدهای زیستمحیطی، رویکرد “مقیاس به هر قیمت” و روایتسازی مرتبط با آن (نظیر “مقایسه با چین”)، به توسعه فناوریهایی منجر میشود که به جای تقویت دموکراسی، آن را تضعیف میکنند. شرکتهای سیلیکون ولی برای جلوگیری از مقرراتگذاری در ایالات متحده، اغلب از کارت “چه میشود اگر چین…” استفاده میکنند. آنها ادعا میکنند که اگر آمریکا قوانین را سختگیرانه کند، چین که ظاهراً هیچ مقرراتی ندارد، پیشتاز خواهد شد و این برای امنیت ملی ایالات متحده بد خواهد بود.
اما هاو این استدلال را “یک نقص کلیدی” میداند، زیرا چین در واقع به شدت در حال تنظیمگری هوش مصنوعی است. چین دومین نهاد پس از اتحادیه اروپا است که بیشترین قوانین و مقررات هوش مصنوعی را اجرا کرده است، از جمله قوانین قوی حفظ حریم خصوصی دادهها و امنیت سایبری. در مقابل، ایالات متحده حتی یک قانون فدرال حفظ حریم خصوصی دادهها هم ندارد. هاو اشاره میکند که اخیراً جمهوریخواهان در مجلس نمایندگان، بند قانونی را تصویب کردهاند که “۱۰ سال توقف بر مقرراتگذاری هوش مصنوعی در سطح ایالتی” ایجاد میکند و این طرح در حال حاضر به سنا فرستاده شده است. این نشان میدهد که در آمریکا، به جای مقرراتگذاری، تمایل به حذف “حصارها” (guardrails) بیشتر است.
هاو استدلال میکند که این رویکرد “چه میشود اگر چین…” در یک دهه گذشته، به توسعه “فناوریهای دموکراتیکتر” منجر نشده، بلکه “به عکس آن، فناوریهای اقتدارگراتر” را به ارمغان آورده است. او این شرکتها را “تکنو-اقتدارگرا” (techno-authoritarians) مینامد، زیرا “هیچ کس را در مورد چگونگی توسعه پلتفرمهای خود یا محل استقرار این فناوریها مشارکت نمیدهند”. هاو نتیجه میگیرد که ما شاهد “فروپاشی آهسته لیبرالیسم در سراسر جهان به دست شرکتهای سیلیکون ولی” هستیم. او تاکید میکند که برای ایجاد هوش مصنوعی دموکراتیکتر، نباید “همه حصارها را پاره کرد”، بلکه باید “بیشتر از آنها را پیادهسازی کرد”. این پیامدها نشان میدهند که “مقیاس به هر قیمت” نه تنها به محیط زیست آسیب میرساند، بلکه میتواند بنیانهای دموکراسی را نیز سست کند.
چالشهای رقابتی و مهاجرت نخبگان
درون “امپراتوری هوش مصنوعی” OpenAI، جدای از بحران حکمرانی که به برکناری سم آلتمن منجر شد، چالشهای رقابتی و ایدئولوژیک عمیقتری نیز وجود داشت که به “مهاجرت نخبگان” (talent exodus) و شکلگیری شرکتهای رقیب جدید منجر شد. این پدیده نه تنها بیانگر اختلافات شخصی و نفسانی است، بلکه نشاندهنده تفاوت دیدگاههای بنیادی در مورد چگونگی شکلدهی به آینده هوش مصنوعی است.
H3: جدایی بنیانگذاران و مدیران ارشد از OpenAI
همانطور که کارن هاو اشاره میکند، جدایی بسیاری از چهرههای کلیدی و بنیانگذاران اولیه OpenAI، از جمله ایلان ماسک، داریو آمادِی (Dario Amodei) و میرا موراتی، ریشههای پیچیدهای دارد. هاو معتقد است که این جداییها هم ناشی از “کشمکشهای نفسانی و شخصیتی” و هم “کشمکشهای ایدئولوژیک” بوده است.
بسیاری از مدیران سابق OpenAI (که اکنون بیشتر آنها شرکت را ترک کردهاند) درک میکردند یا تشخیص داده بودند که “توانایی شکلدهی به هوش مصنوعی، نفوذ عمیقی بر جامعه آینده ما خواهد داشت”. اما آنها “اختلاف نظرهایی در مورد چگونگی شکلدهی به هوش مصنوعی” داشتند. تا زمانی که با آلتمن همسو بودند، OpenAI را بهترین مکان برای شکلدهی به این فناوری میدانستند. اما وقتی دیدگاههای آنها با آلتمن در زمینههای ایدئولوژیک در تضاد قرار گرفت، “از هم جدا شدند” تا سازمانهای خود را ایجاد کنند. آنها معتقد بودند که بهترین راه برای “تجلی بخشیدن به چشمانداز خود از هوش مصنوعی”، ایجاد یک شرکت دیگر برای رقابت با OpenAI و تلاش برای شکست دادن آنها در بازار است.
این پدیده جدایی، به شکلگیری چندین شرکت هوش مصنوعی برجسته دیگر منجر شده است:
- ایلان ماسک پس از جدایی خود از OpenAI، شرکت XAI را تأسیس کرد.
- داریو آمادِی، یکی از “دومرهای” برجسته در روزهای اولیه OpenAI، که دیدگاههای ایدئولوژیک متفاوتی با آلتمن داشت، Anthropic را بنیانگذاری کرد.
- ایلیا ساتسگوِر، دانشمند ارشد و عضو هیئت مدیره که در برکناری آلتمن نقش داشت، پس از بازگشت آلتمن از OpenAI جدا شد و شرکت SSI (Superintelligence Startup Inc.) را تأسیس کرد.
- میرا موراتی، مدیر ارشد فناوری سابق که نگران حکمرانی آلتمن بود، نیز OpenAI را ترک کرد و Thinking Machines Lab را بنیانگذاری کرد.
هاو این پدیده را به این شکل خلاصه میکند: “به معنای واقعی کلمه فقط انبوهی از جداییها است که همه به یک نتیجه میرسند: صبر کن، من میخواهم هوش مصنوعی به شکل و شمایل من باشد، من میخواهم هوش مصنوعی بر اساس آنچه من درست میدانم باشد. و حالا اجازه بدهید دقیقاً همان کاری را بکنم که آلتمن در ابتدا کرد، یعنی تلاش کنم شرکتی را تشکیل دهم که بسط اراده من باشد”. این نشان میدهد که حتی درون “امپراتوری”، نخبگان خود را به عنوان “معماران” آینده هوش مصنوعی میبینند و حاضرند برای تحقق دیدگاه خود، مسیر خود را در پیش گیرند.
H3: ظهور شرکتهای رقیب و مدل “شرکت با منافع عمومی”
یکی از نکات جالب توجهی که هاو به آن اشاره میکند، این است که بسیاری از این شرکتهای جدید، مانند Anthropic، به عنوان “شرکتهای با منافع عمومی” (public benefit corporations) تأسیس شدهاند. این نوع ساختار شرکتی، در تئوری، فراتر از ارزش سهامدار، وظیفه امانتداری (fiduciary duty) را در قبال بشریت نیز بر عهده میگیرد. این رویکرد، در مقایسه با ساختار منحصر به فرد و پیچیده OpenAI (یک شرکت انتفاعی در دل یک غیرانتفاعی) که مورد انتقاد شدید سرمایهگذاران پس از بحران آلتمن قرار گرفت، تلاش میکند تا نوعی تعادل بین اهداف انتفاعی و غیرانتفاعی برقرار کند. با این حال، هنوز باید دید که آیا این ساختارها در عمل به اهداف “منافع عمومی” خود به طور کامل متعهد خواهند ماند یا خیر.
این رقابت شدید و ظهور شرکتهای جدید نشان میدهد که “امپراتوری” هوش مصنوعی فقط محدود به یک بازیگر نیست، بلکه میدان نبردی است که در آن دیدگاهها و ارادههای مختلف برای شکلدهی به آینده این فناوری با یکدیگر در حال رقابت هستند. این پویاییها، چالشها و فرصتهای جدیدی را در زمینه حکمرانی و اخلاق هوش مصنوعی ایجاد میکند، چرا که هر “امپراتوری کوچکتر” نیز دیدگاه و رویکرد خود را در قبال “سودمندی برای بشریت” دارد.
جایگاه چین در توسعه هوش مصنوعی و رویکرد رگولاتوری
یکی از نقاط قوت بحث کارن هاو، به چالش کشیدن روایت غالب در ایالات متحده در مورد توسعه هوش مصنوعی در چین است. در حالی که شرکتهای آمریکایی اغلب چین را به عنوان یک “امپراتوری شر” تصویر میکنند که بدون هیچگونه مقرراتی به سرعت در حال پیشروی است، هاو این تصور را رد کرده و بینشهای متفاوتی را ارائه میدهد.
H3: شکست روایت غالب: چین، یک تنظیمگر جدی هوش مصنوعی
روایت رایج در ایالات متحده این است که “چین هیچ چیز را تنظیم نخواهد کرد و هیچگونه حفاظی نخواهد داشت” در زمینه هوش مصنوعی. این استدلال اغلب توسط شرکتهای سیلیکون ولی مطرح میشود تا از مقرراتگذاری در داخل آمریکا جلوگیری کنند، با این هشدار که در غیر این صورت، چین برتری خواهد یافت و نسخه “بسیار اقتدارگراتر” هوش مصنوعی خود را تحمیل خواهد کرد.
اما هاو به شدت با این دیدگاه مخالف است: “آنها [چینیها] اتفاقاً این کار را میکنند [مقرراتگذاری میکنند]. بله، هر امپراتوری ادعا میکند که کارهایش را برای منفعت بشریت انجام میدهد. هیچ کس خود را آدم بد نمیداند”. او تاکید میکند که “چیزهایی که مردم اغلب در مورد توسعه هوش مصنوعی چین نمیدانند این است که چین اتفاقاً به شدت در حال تنظیمگری هوش مصنوعی است”.
در واقع، “چین پس از اتحادیه اروپا، بیشترین قوانین و مقررات هوش مصنوعی را اجرا کرده است”. این مقرراتگذاری نه تنها شامل کاربردهای هوش مصنوعی میشود، بلکه قوانین جامع حفظ حریم خصوصی دادهها و قوانین امنیت سایبری بسیار قوی نیز دارد که قوانین هوش مصنوعی بر آنها بنا شدهاند. هاو این وضعیت را با اتحادیه اروپا مقایسه میکند که دارای مقررات GDPR (حفظ حریم خصوصی دادهها) است و قانون هوش مصنوعی اتحادیه اروپا نیز بر مبنای همین چارچوبها بنا شده است. در مقابل، “ایالات متحده هنوز قانون فدرال حفظ حریم خصوصی دادهها ندارد” و بنابراین “هیچ چیز در نزدیکی اجرای نوعی قانون هوش مصنوعی نیست، زیرا هیچ چارچوبی برای آن نوع چارچوب وجود ندارد”.
هاو یک مثال ملموس از فقدان تمایل به مقرراتگذاری در ایالات متحده ارائه میدهد: “اخیراً، لایحه مالیاتی که در کنگره تصویب شد و به مجلس نمایندگان رفت، جمهوریخواهان بندی را در آن گنجاندند تا یک توقف ۱۰ ساله بر مقرراتگذاری هوش مصنوعی در سطح ایالتی قرار دهند”. اگر این لایحه در سنا تصویب شود، “به معنای واقعی کلمه هیچ توانایی قانونی برای اجرای مقررات هوش مصنوعی در سطح ایالتی برای یک دهه وجود نخواهد داشت”.
H3: پیامدهای نادیده گرفتن واقعیت چین: فناوریهای اقتدارگرا
هاو نتیجه میگیرد که شرکتهای سیلیکون ولی “همیشه از کارت ‘چه میشود اگر چین…’ استفاده خواهند کرد تا مقرراتگذاری را دفع کنند”. اما “یک نقص کلیدی در استدلال آنها این است که چین در واقع در حال حاضر این چیزها را تنظیم میکند”.
پیامد این رویکرد در ایالات متحده، به گفته هاو، این است که “اگر موجودی را از آنچه این کارت ‘چه میشود اگر چین…’ در دهه گذشته برای ما به ارمغان آورده است، برداریم، من استدلال میکنم که فناوریهای دموکراتیکتری برای ما به ارمغان نیاورده است. در واقع، ما فقط فناوریهای اقتدارگراتر به دست آوردهایم”. او معتقد است که “ما شاهد از هم پاشیدگی آهسته لیبرالیسم در سراسر جهان به دست شرکتهای سیلیکون ولی بودهایم”. هاو این شرکتها را “تکنو-اقتدارگرا” مینامد، زیرا “آنها واقعاً هیچ کس را در مورد چگونگی توسعه پلتفرمهای خود مشارکت نمیدهند. آنها واقعاً نمیپرسند که این فناوریها کجا باید مستقر شوند”.
بنابراین، دیدگاه هاو این است که برای ایجاد هوش مصنوعی “دموکراتیکتر”، راه حل “پاره کردن همه حصارها نیست، بلکه در واقع اجرای بیشتر آنها است”. این تحلیل نشان میدهد که درک صحیح از رویکردهای جهانی در مورد هوش مصنوعی، به ویژه در چین، برای اتخاذ سیاستهای مؤثر و مسئولانه در کشورهای دیگر حیاتی است و نمیتوان به روایات سادهانگارانه تکیه کرد.
چشمانداز آینده و توسعه اخلاقی هوش مصنوعی
با توجه به چالشهای حکمرانی، اخلاقی، زیستمحیطی و اجتماعی که “امپراتوریهای هوش مصنوعی” ایجاد کردهاند، کارن هاو راهکارهایی را برای توسعه اخلاقیتر و مشارکتیتر هوش مصنوعی پیشنهاد میدهد. این راهکارها بر تغییر رویکرد از مدل فعلی “مقیاس به هر قیمت” به سمت یک الگوی شفافتر، دموکراتیکتر و مسئولانهتر تأکید دارند.
H3: توسعه مشارکتی هوش مصنوعی: راهی رو به جلو
کارن هاو به شدت خواهان “توسعه مشارکتیتر هوش مصنوعی” است. او معتقد است که این مشارکت باید “تمام زنجیره تأمین توسعه هوش مصنوعی” را در بر گیرد. این زنجیره شامل “تمام مواد اولیه” که برای توسعه هوش مصنوعی استفاده میشوند و همچنین “تمام فضاهایی” که هوش مصنوعی در آنها مستقر میشود، است. او تاکید میکند که “این مواد اولیه و این فضاها به صورت جمعی متعلق به همه هستند”.
- مالکیت جمعی منابع (دادهها و زیرساختها): هاو مثال میزند که “دادههایی که این مدلها بر اساس آن آموزش میبینند… این دادهها یا به صورت فردی متعلق به افراد هستند”. افراد بسیاری وجود دارند که مالکیت فکری آنها بدون رضایت آگاهانه برای آموزش مدلها استفاده شده است و اکنون آنها از شرکتها شکایت میکنند تا مالکیت خود را پس بگیرند. این مشکل میتوانست با “بحث عمومی در مورد اینکه چه دادههایی باید برای آموزش این مدلها استفاده شود” کاهش یابد. او به تصمیم OpenAI در مورد استفاده از تصاویر پورنوگرافی برای آموزش مدلهای تولید تصویر اشاره میکند که بدون مشورت عمومی انجام شد و پیامدهای منفی از جمله توانایی تولید محتوای غیرقانونی از کودکان را به دنبال داشت. همچنین، مکانیابی مراکز داده در جوامع نیز باید یک “بحث جمعی” باشد. او داستان فعالان آب شیلیایی را مثال میزند که برای پنج سال جلوی ساخت مرکز داده گوگل را در جامعه خود گرفتند، زیرا این مرکز قرار بود تمام منابع آب شیرین آنها را مصرف کند. این فعالان با اعتراضات و سازماندهی، دولت و گوگل را مجبور کردند تا با آنها وارد گفتگو شوند و جامعه بتواند خواستههای خود را مطرح کند. این مثال نشان میدهد که وقتی جامعه “مالکیت جمعی” خود را بر منابعی که این شرکتها نیاز دارند، “اثبات میکند”، میتواند تغییر ایجاد کند.
- نقش جامعه و فعالان: هاو باور دارد که “همه نقش دارند” در شکلدهی به این فناوری. این نقش میتواند شامل “نویسندگانی که از شرکتها شکایت میکنند”، “فعالانی که در برابر مراکز داده مقاومت میکنند”، یا “معلمان و دانشجویانی که بحثهای جدی در مورد چگونگی استقرار هوش مصنوعی در محیط ما به گونهای که تفکر انتقادی را تقویت کند به جای اینکه آن را از بین ببرد” دارند، باشد. او همچنین به گروهی از دانشجویان دانشگاه استنفورد اشاره میکند که در حال بررسی چگونگی استفاده از فعالیت دانشجویی برای تأثیرگذاری بر توسعه فناوری هستند.
- لزوم گفتوگوی عمومی: هاو تاکید میکند که پاسخ به اینکه “چه کسی باید این بحثها را رهبری کند، همه هستند”. هر کسی که نفوذی دارد، باید فضاهایی مانند بحث کنونی را برای این گفتوگوها فراهم کند و آن را در حوزه عمومی پیش ببرد. او مثال میزند که اساتید میتوانند دورههای جدیدی را برای آموزش توسعه مسئولانه فناوری ایجاد کنند که میتواند “یک تغییر فرهنگی بزرگ” در میان فارغالتحصیلان آینده ایجاد کند.
H3: شفافیت در مدلهای هوش مصنوعی
برای توسعه اخلاقی هوش مصنوعی، شفافیت حیاتی است. هاو به شدت از رویکرد منبع باز (open-source) دفاع میکند، زیرا معتقد است که تنها با مدلهای باز میتوان “انحصار تولید دانش را از بین برد”.
- اهمیت رویکرد منبع باز: مدلهای منبع باز به محققان مستقل اجازه میدهند تا مدلها و مجموعه دادههای آموزشی آنها را بررسی کنند. این بررسی برای اطمینان از اینکه مدلها صرفاً اطلاعات را حفظ نکردهاند، بلکه قابلیتهای جدیدی را توسعه دادهاند، ضروری است.
- نقد ارزیابیهای فعلی: هاو به شدت ارزیابیهای فعلی مدلهای هوش مصنوعی را زیر سوال میبرد و آنها را “کاملاً ساختگی” (totally bogus) مینامد، زیرا شرکتها دادههای آموزشی را منتشر نمیکنند. بدون دانستن دادههای آموزشی، نمیتوان به درستی ارزیابی کرد که آیا یک مدل واقعاً پیشرفت کرده است یا خیر. او دوباره به مثال بیل گیتس و آزمون زیستشناسی AP اشاره میکند و تاکید میکند که اگر مدل صرفاً بر اساس دادههای شامل این آزمون آموزش دیده باشد، “به هیچ وجه به اندازه زمانی که به دلیل توسعه قابلیتهای استدلال موفق شده باشد، چشمگیر نیست”.
H3: مقابله با توهم هوش انسانی
یکی دیگر از ابعاد حیاتی در توسعه اخلاقی هوش مصنوعی، درک درست از ماهیت این فناوری و مقابله با توهم هوش انسانی است. هاو به کار جوزف وایزنباوم (Joseph Weizenbaum)، مخترع اولین چتبات، الیزا، در دهه ۱۹۶۰ اشاره میکند.
- درسهایی از تاریخچه چتباتها: وایزنباوم، الیزا را برای نشان دادن اینکه این سیستمها “یک سراب هستند” اختراع کرد. او میخواست نشان دهد که زبان “به طور منحصر به فردی فریبنده” است و “روانشناسی انسان به طور منحصر به فردی آسیبپذیر است” در برابر این باور که چیزهایی که با ما صحبت میکنند، دارای آگاهی هستند. هدف او افشای این “فریب” بود. اما حتی زمانی که او حقیقت را فاش کرد، مردم به او باور نکردند و فکر میکردند هوش انسانی بازآفرینی شده است. هاو میگوید که ما اکنون در حال شنیدن “تکرار همین لفاظیها” هستیم: اینکه نیازی به معلمان، پزشکان یا درمانگران انسانی نخواهیم داشت. وایزنباوم حتی در آن زمان هشدار داد که اگر به دنبال بازآفرینی هوش انسانی باشیم، به نقطهای خواهیم رسید که انسانها نیز بیشتر شبیه ماشینها عمل خواهند کرد.
- ریشههای “فریب”: هاو توضیح میدهد که “تمام این چیزهایی که در مورد فریبنده بودن مدلها، دروغ گفتن مدلها و امثال آن وجود دارد، دقیقاً همان چیزی است که وایزنباوم در موردش صحبت میکرد”. او تاکید میکند: “ما قصد را به فناوریهایی نسبت میدهیم که در نهایت فقط توسط انسانها خلق شدهاند و در نهایت فقط هر چیزی را که شما میخواهید، از خود بیرون میدهند، و این ما هستیم که در دام آن میافتیم، نه اینکه مدلها سعی در فریب ما داشته باشند”. این درک، برای توسعه مسئولانه هوش مصنوعی و اجتناب از خطرات اخلاقی و اجتماعی، ضروری است.
H3: نقش آکادمی و نهادهای مستقل
هاو معتقد است که برای مقابله با انحصار قدرت و دانش در دست “امپراتوریهای شرکتی”، دولتها باید “تحقیقات بسیار بیشتری را در خارج از امپراتوریهای شرکتی تأمین مالی کنند”.
- لزوم تأمین مالی تحقیقات مستقل: این تأمین مالی باید شامل آکادمیها، سازمانهای غیرانتفاعی کوچکتر، و شرکتهای کوچکتر باشد. هدف نباید فقط تأمین مالی تحقیقات فنی باشد، بلکه باید به سازمانهای حقوق بشر، سازمانهای حقوق کار، و سازمانهای آموزشی نیز منابع مالی اختصاص یابد تا آنها نیز بتوانند در توسعه هوش مصنوعی مشارکت کنند.
- توسعه شبکهای از نهادهای مستقل: هاو با این ایده که “یک امپراتوری خوب دیگر برای مقابله با امپراتوری شر” ایجاد شود، موافق نیست. او معتقد است که “باید تعداد زیادی سازمان خارج از امپراتوریهای شرکتی را تأمین مالی کنیم که هر کدام کار مستقل خود را با تخصصها و موقعیتهای خود انجام میدهند تا همه بتوانند به گفتگو کمک کنند، به جای اینکه صرفاً انحصار دیگری از دانش را در جای دیگری ایجاد کنیم”. این رویکرد شبکهای، میتواند به یک اکوسیستم متنوعتر و دموکراتیکتر در توسعه هوش مصنوعی منجر شود.
H3: توصیههایی برای استارتاپهای هوش مصنوعی
برای استارتاپهای کوچکتر که به دنبال رقابت در بازار هوش مصنوعی هستند، هاو توصیههای عملی ارائه میدهد.
- تمرکز بر نوآوری در حوزههای تخصصی: او معتقد است که “اول از همه، فکر نمیکنم برای کسب و کار آنها خوب باشد که سعی کنند با این شرکتها بر سر مدلهای هوش مصنوعی در مقیاس بزرگ رقابت کنند”. استارتاپهای هوش مصنوعی سرمایه لازم برای این کار را ندارند. بنابراین، هم از دیدگاه تجاری و هم از دیدگاه مسئولیت اجتماعی، “آنها نباید در آن بازی رقابت کنند”.
- خلق تصورات جدید از قابلیتهای هوش مصنوعی: در عوض، استارتاپها میتوانند “تصورات جدیدی از آنچه هوش مصنوعی میتواند انجام دهد، خلق کنند”. هاو مثال میزند که با یک بنیانگذار استارتاپی صحبت کرده که روی “هوش مصنوعی برای کشف علم مواد” تمرکز کرده و سعی دارد در این زمینه نوآوری کند. این کار “نشان میدهد چه چیزی با سیستمهای هوش مصنوعی با محدوده باریکتر و اختصاصیتر برای یک بخش خاص از فرآیند علمی امکانپذیر است”. او معتقد است که “باید استارتاپهای بیشتری وجود داشته باشند که انواع دیگر ابزارهای هوش مصنوعی را نشان دهند که میتوانند توسعه یابند و در نهایت به آنچه OpenAI ادعا میکند کمک میکند، کمک کنند؛ مانند هوش مصنوعی برای علم، هوش مصنوعی برای سیستمهای انرژی انعطافپذیرتر، هوش مصنوعی برای مراقبتهای بهداشتی و امثال آن”. این رویکرد، راهی برای نوآوری مسئولانه و ایجاد ارزش واقعی در حوزه هوش مصنوعی است که فراتر از منطق “امپراتوری” و “مقیاس به هر قیمت” عمل میکند.
امیدها و ترسها برای آینده هوش مصنوعی
در پایان تحلیل خود از “امپراتوریهای هوش مصنوعی” و چالشهای حکمرانی مرتبط با آن، کارن هاو به بیان امیدها و ترسهای خود برای آینده این فناوری میپردازد. این دیدگاهها، خلاصهای از نگرانیهای او و همچنین پتانسیلهایی است که در صورت تغییر مسیر، هوش مصنوعی میتواند برای بشریت به ارمغان آورد.
H3: بزرگترین امید: افزایش آگاهی و مشارکت عمومی
بزرگترین امید کارن هاو برای آینده هوش مصنوعی، در افزایش بیسابقه گفتوگو و آگاهی عمومی نهفته است. او یادآوری میکند که وقتی در سال ۲۰۱۸ شروع به پوشش خبری هوش مصنوعی کرد، بسیاری فکر میکردند این یک حوزه “بسیار خاص” است که ممکن است به اندازه کافی موضوع برای نوشتن نداشته باشد. اما اکنون، “همه در مورد آن فکر میکنند”. این تغییر در آگاهی و توجه، از نظر هاو، “شگفتانگیز است”، زیرا “ما نیاز داریم که همه در مورد آن فکر کنند و به طور خاص در مورد اینکه چه نقشی میتوانند در شکلدهی به این فناوری ایفا کنند، بیاندیشند”.
هاو قویاً معتقد است که “همه نقش دارند”. این نقش میتواند شامل فعالیتهای متنوعی باشد: از نویسندگانی که برای حقوق مالکیت فکری خود از شرکتها شکایت میکنند، تا فعالانی که در برابر ساخت مراکز داده مقاومت میکنند، و یا معلمان و دانشجویانی که بحثهای جدی در مورد چگونگی استقرار هوش مصنوعی به گونهای که “تفکر انتقادی را تقویت کند به جای اینکه آن را از بین ببرد”، دارند.
امید او این است که از طریق تمام این بحثها و مشارکتها، “به نسخهای از هوش مصنوعی دست خواهیم یافت که بسیار گستردهتر سودمند باشد”. این سودمندی گستردهتر، نتیجه “گفتمان عمومی بسیار بیشتر و حکمرانی نهایی و آشکار” در مورد چگونگی توسعه این ابزارها خواهد بود. بنابراین، امید اصلی هاو در توانایی جمعی بشریت برای آگاه شدن، مشارکت فعال و شکلدهی به آینده هوش مصنوعی از طریق یک فرآیند دموکراتیک و باز است.
H3: بزرگترین ترس: فرسایش دموکراسی و از دست دادن عاملیت فردی
در مقابل امیدها، هاو بزرگترین ترس خود را در فرسایش دموکراسی و از دست دادن عاملیت فردی میبیند. او در ابتدا هنگام نوشتن کتابش، بیشتر بر “آسیبهای عمودی” (vertical harms) مانند استثمار نیروی کار و آسیبهای زیستمحیطی تمرکز داشت و قصد داشت “زنجیره تأمین فناوریهای دیجیتال را نشان دهد که دارای یک زنجیره تأمین فیزیکی هستند”. اما در طول تحقیقاتش، وقتی با کارگران استثمار شده یا افرادی که منابع محیطیشان استخراج شده بود صحبت میکرد، متوجه شد که آنها “همان یک چیز را میگفتند: این حس از دست دادن کامل عاملیت بر توانایی تعیین سرنوشت خود”.
اینجاست که هاو دریافت “بزرگترین تهدید این امپراتوریها، فرسایش دموکراسی است”. زیرا اگر “اکثریت مردم جهان شروع به احساس کنند که عاملیتی برای تعیین سرنوشت خود ندارند، دموکراسی دیگر کار نمیکند”. او توضیح میدهد که “دموکراسی بر این ایده استوار است که همه ما حق داریم، همه ما صدا داریم، همه ما سزاواریم که به صندوق رأی برویم و بگوییم و احساس کنیم که در شکلدهی به آینده جمعی نقش داریم”.
هاو ابراز نگرانی میکند که در محیط سیاسی کنونی، “بیشتر و بیشتر مردم میگویند که ‘حتی فکر نمیکنم رأی من مهم باشد’، ‘حتی نمیدانم دیگر چه کاری میتوانم انجام دهم’، ‘فقط باید تسلیم شوم و رها کنم'”. او هشدار میدهد که “این زمانی است که دموکراسی میمیرد، زمانی که مردم اینگونه تسلیم میشوند”.
کتاب هاو، با همین امید نگاشته شده است: “که میتواند سکویی برای انگیزه دادن به مردم باشد تا تشخیص دهند که در واقع تسلیم نشوید، زیرا تمام این مواد اولیهای که برای هوش مصنوعی استفاده میشوند، تمام این فضاهایی که هوش مصنوعی در آنها مستقر میشود، به صورت جمعی متعلق به همه هستند و اگر ما فقط به یاد داشته باشیم که مالکیت خود را بر آنها تأیید کنیم، قادر خواهیم بود مسیر توسعه هوش مصنوعی را شکل دهیم و تغییر دهیم”. بنابراین، بزرگترین ترس هاو از دست رفتن جوهر دموکراسی است، اما در عین حال، بزرگترین امید او نیز در قدرت نهفته در عاملیت جمعی شهروندان برای مقابله با این تهدید است.
نتیجهگیری
پیدایش و گسترش “امپراتوریهای هوش مصنوعی” چالشهای عمیق و چندوجهی را برای جامعه جهانی به ارمغان آورده است. همانطور که کارن هاو به شکلی روشنگرانه توضیح میدهد، شرکتهایی مانند OpenAI، با وجود مأموریتهای والا و آرمانگرایانه ابتدایی، در مسیر توسعه خود ویژگیهایی از امپراتوریهای کهن را به نمایش گذاشتهاند: از ادعای مالکیت بر منابع عمومی (دادهها) و استثمار نیروی کار در زنجیره تأمین و خودکارسازی مشاغل، تا انحصار تولید دانش و ساخت روایتهایی برای توجیه قدرت خود. بحرانهای داخلی مانند برکناری سم آلتمن، نه تنها شکافهای ایدئولوژیک و مدیریتی را آشکار ساخت، بلکه نشان داد که چگونه نیروهای اقتصادی میتوانند بر اصول حکمرانی سایه افکنند.
رویکرد “مقیاس به هر قیمت” در سیلیکون ولی، در حالی که سرعت نوآوری را تسریع میکند، هزینههای زیستمحیطی سنگینی را در قالب مصرف بیرویه انرژی و آلودگی به همراه دارد. علاوه بر این، روایتهای نادرست در مورد رقابت ژئوپلیتیکی، به ویژه با چین، منجر به توسعه فناوریهای اقتدارگراتر شده و بنیانهای دموکراسی را تضعیف میکند. در چنین چشماندازی، بزرگترین ترس هاو، فرسایش عاملیت فردی و دموکراسی است، جایی که مردم احساس میکنند دیگر توانایی شکلدهی به آینده خود را ندارند.
با این حال، راهحلها و امیدهایی نیز وجود دارد. هاو بر لزوم توسعه “مشارکتی” هوش مصنوعی تأکید میکند، جایی که جامعه، فعالان، و نهادهای مستقل، مالکیت جمعی خود را بر منابع و فرآیندهای توسعه این فناوری ابراز کنند. او شفافیت از طریق رویکرد “منبع باز” و مقابله با توهم هوش انسانی را برای ارزیابی دقیقتر و مسئولانهتر هوش مصنوعی حیاتی میداند. تأمین مالی تحقیقات مستقل خارج از شرکتهای بزرگ و تشویق استارتاپها به نوآوری در حوزههای تخصصی به جای رقابت صرف بر سر مقیاس، نیز از راهکارهای کلیدی است.
بزرگترین امید، در افزایش آگاهی و گفتوگوی عمومی گسترده در مورد هوش مصنوعی نهفته است. اگر افراد در سراسر جهان نقش فعال خود را در شکلدهی به این فناوری به رسمیت بشناسند و به عنوان “مالکان جمعی” منابع آن عمل کنند، میتوان مسیر توسعه هوش مصنوعی را به سمت نسخهای “بسیار سودمندتر” برای تمام بشریت تغییر داد. این امر مستلزم آن است که “همه” درگیر شوند و حکمرانی هوش مصنوعی به یک بحث عمومی و شفاف تبدیل شود، نه اینکه صرفاً در دست یک گروه کوچک از نخبگان فناوری باشد. آینده هوش مصنوعی، و به تبع آن آینده جامعه بشری، به میزان مشارکت و آگاهی جمعی ما در مواجهه با چالشهای “امپراتوریهای هوش مصنوعی” بستگی دارد.
بدون نظر