امپراتوری هوش مصنوعی: فراتر از نوآوری، در قلمرو حکمرانی و قدرت

چکیده

این مقاله به بررسی مفهوم “امپراتوری هوش مصنوعی” می‌پردازد، ایده‌ای که توسط کارن هاو در کتابش مطرح شده و به این موضوع اشاره دارد که شرکت‌های پیشرو در زمینه هوش مصنوعی، به‌ویژه OpenAI، ویژگی‌های امپراتوری‌های کهن را به نمایش می‌گذارند. مقاله با تشریح پیدایش و تحول OpenAI، از یک سازمان غیرانتفاعی با هدف “سودمندی برای بشریت” به یک نهاد انتفاعی با ساختار پیچیده، آغاز می‌شود. سپس، چهار ستون اصلی امپراتوری هوش مصنوعی – ادعای منابع، استثمار نیروی کار، انحصار تولید دانش، و روایت “امپراتوری خوب در برابر امپراتوری شر” – مورد تحلیل قرار می‌گیرد. بحران حکمرانی در OpenAI، شامل برکناری سم آلتمن و نبرد ایدئولوژیک میان “بومرها” و “دومرها”، به عنوان نمونه‌ای از چالش‌های درونی این “امپراتوری” بررسی می‌شود. پیامدهای رویکرد “مقیاس به هر قیمت” بر محیط زیست و دموکراسی نیز از نکات کلیدی است. در نهایت، مقاله به راه‌حل‌های پیشنهادی برای توسعه اخلاقی و مشارکتی هوش مصنوعی، شامل شفافیت و نقش نهادهای مستقل، می‌پردازد و امیدها و ترس‌ها برای آینده این فناوری را بازگو می‌کند. این تحلیل عمیق، درکی جامع از چالش‌های حکمرانی، اخلاقی و اجتماعی مرتبط با هوش مصنوعی در عصر حاضر ارائه می‌دهد.

مقدمه

هوش مصنوعی (AI) و به ویژه هوش مصنوعی عمومی (AGI)، در سال‌های اخیر به داغ‌ترین موضوع بحث در سیلیکون ولی، ایالات متحده و سراسر جهان تبدیل شده است. این فناوری، نه تنها نویدبخش پیشرفت‌های بی‌سابقه است، بلکه نگرانی‌های عمیقی را در مورد حکمرانی، اخلاق و پیامدهای اجتماعی آن برانگیخته است. در مرکز این مباحث، شرکت‌هایی نظیر OpenAI قرار دارند که با سرعت خیره‌کننده‌ای در حال پیشبرد مرزهای این فناوری هستند. با این حال، همانطور که کارن هاو، متخصص برجسته در این حوزه، در کتاب خود و در صحبت‌هایش مطرح می‌کند، شیوه توسعه و استقرار این فناوری‌ها توسط شرکت‌های بزرگ، سوالات اساسی را در مورد ماهیت قدرت و کنترل در عصر دیجیتال مطرح می‌سازد. هاو این شرکت‌ها را نه صرفاً به عنوان بازیگران صنعتی، بلکه به مثابه “امپراتوری‌های هوش مصنوعی” توصیف می‌کند، که ویژگی‌های مشابهی با امپراتوری‌های کهن دارند و قواعد و منابع را به نفع خود بازتعریف می‌کنند.

این مقاله با الهام از بینش‌های ارائه شده در بحث‌ها و گزارش‌های کارن هاو و ایوان اپستین، به تحلیل عمیق “امپراتوری هوش مصنوعی” می‌پردازد. ما بررسی خواهیم کرد که چگونه شرکت‌هایی مانند OpenAI در مسیر تبدیل شدن از نهادهای غیرانتفاعی با مأموریت‌های والا به قدرت‌های انتفاعی عظیم حرکت کرده‌اند. سپس، با تمرکز بر چهار ویژگی کلیدی امپراتوری‌ها که توسط هاو مطرح شده است – ادعای منابع، استثمار نیروی کار، انحصار تولید دانش، و ساخت روایت – ابعاد مختلف این پدیده را روشن خواهیم ساخت. همچنین، به چالش‌های حکمرانی داخلی در OpenAI، از جمله بحران برکناری سم آلتمن و تقابل ایدئولوژیک “بومرها” و “دومرها” خواهیم پرداخت، که نشان‌دهنده پیچیدگی‌های داخلی این “امپراتوری‌ها” است. پیامدهای رویکرد “مقیاس به هر قیمت” بر محیط زیست و تهدیدات آن بر دموکراسی، از جمله نگرانی‌های محوری این تحلیل خواهد بود. در نهایت، با طرح پیشنهادهایی برای توسعه مشارکتی و اخلاقی هوش مصنوعی، و نگاهی به امیدها و ترس‌ها برای آینده این فناوری، به دنبال ارائه چارچوبی برای درک بهتر این پدیده متحول کننده و نقش ما در شکل‌دهی به آن خواهیم بود. این مقاله با هدف افزایش درک عمومی از این موضوع حیاتی، و تشویق به گفتمان گسترده‌تر در مورد آینده‌ای که هوش مصنوعی برای بشریت رقم خواهد زد، نگاشته شده است.

ریشه‌های امپراتوری: داستان شکل‌گیری OpenAI

H3: از ایده تا واقعیت: بنیان‌گذاری OpenAI با مأموریت عمومی

داستان پیدایش OpenAI نمونه‌ای برجسته از آرمان‌گرایی آغازین و پیچیدگی‌های دنیای واقعی است که می‌تواند به درک چگونگی شکل‌گیری “امپراتوری‌های هوش مصنوعی” کمک کند. OpenAI در ابتدا به عنوان یک سازمان غیرانتفاعی توسط سم آلتمن و ایلان ماسک بنیان‌گذاری شد. ایده اولیه از آلتمن، در دوران ریاستش بر شرکت Y Combinator، نشأت گرفت. او هوش مصنوعی را به عنوان موج بعدی فناوری شناسایی کرده بود و قصد داشت یک آزمایشگاه هوش مصنوعی درون YC ایجاد کند. آلتمن دریافت که برای جذب نخبگان و متخصصان برتر هوش مصنوعی، به اعتبار و نام‌آوری در این حوزه نیاز دارد، که خودش فاقد آن بود. اینجاست که نقش ایلان ماسک پررنگ می‌شود. ماسک در آن زمان به شدت در حال کمپین عمومی در مورد خطرات بالقوه هوش مصنوعی بود و مدام هشدار می‌داد که این فناوری می‌تواند بشریت را نابود کند و آن را به “آزاد کردن شیطان” تشبیه می‌کرد. او به شدت نگران توسعه هوش مصنوعی در محیط‌های انتفاعی بود و گوگل را به دلیل انحصار استعدادهای هوش مصنوعی هدف قرار می‌داد.

آلتمن با بهره‌گیری از این نگرانی‌ها و دیدگاه‌های ماسک، او را به مشارکت در تلاش خود برای ایجاد یک سازمان غیرانتفاعی متقاعد کرد. آلتمن به ماسک گفت که نگرانی‌های او را درک می‌کند و پیشنهاد داد یک سازمان غیرانتفاعی برای مقابله با گوگل ایجاد شود، سازمانی که بدون هیچ‌گونه هدف انتفاعی، هوش مصنوعی را صرفاً برای منافع عمومی توسعه دهد. ماسک از این ایده استقبال کرد و به این پروژه پیوست. با پیوستن ماسک، آن‌ها توانستند محققان برجسته هوش مصنوعی را جذب کنند که بسیاری از آن‌ها دقیقاً به دلیل حضور ماسک به پروژه ملحق شدند. این آغاز مسیر OpenAI بود، با مأموریتی روشن و ظاهراً غیرانتفاعی: توسعه هوش مصنوعی برای منفعت عمومی، نه سود مالی.

H3: تحول ساختاری: از غیرانتفاعی به مدل “سود محدود”

با این حال، این آرمان‌گرایی دیری نپایید که با واقعیت‌های توسعه فناوری‌های مقیاس‌پذیر و پرهزینه روبرو شد. حدود یک سال و نیم پس از تأسیس، در سال ۲۰۱۷، OpenAI پیشرفت قابل توجهی نکرده بود. آن‌ها در ابتدا بیشتر یک ایده کلی داشتند تا یک برنامه عملیاتی مشخص برای رسیدن به رهبری در توسعه هوش مصنوعی. در این مرحله، آن‌ها به رویکردی مشخص برای توسعه هوش مصنوعی دست یافتند: مقیاس‌گذاری شدید فناوری‌های موجود. این رویکرد شامل استفاده از حجم بی‌سابقه‌ای از داده‌ها برای آموزش شبکه‌های عصبی (neural networks)، و بهره‌گیری از ابرکامپیوترهای بزرگ‌تر از هر آنچه قبلاً ساخته شده بود، با این امید که سیستم‌های قدرتمندتری حاصل شود. فرض بر این بود که با انجام این کار سریع‌تر از رقبا، می‌توانند به جایگاه شماره یک در این حوزه دست یابند.

اما این رویکرد جدید، نیاز به سرمایه بسیار هنگفت داشت. ناگهان، گلوگاه از “جذب استعداد” به “جذب سرمایه” تغییر کرد. OpenAI متوجه شد که ساختار غیرانتفاعی آن‌ها دیگر برای جذب سرمایه ده‌ها میلیارد دلاری که پیش‌بینی می‌کردند، مناسب نیست. در اینجاست که یکی از بحث‌برانگیزترین تصمیمات ساختاری این شرکت اتخاذ شد: آن‌ها یک شرکت انتفاعی را در دل سازمان غیرانتفاعی خود جای دادند. این شرکت انتفاعی به عنوان یک “ابزار جمع‌آوری سرمایه” عمل می‌کرد تا بتواند سرمایه از سرمایه‌گذاران خطرپذیر (VC) را جذب کند و به آن‌ها نوعی بازگشت سرمایه را وعده دهد.

این مدل جدید، در ابتدا به عنوان “سود محدود” (capped profit) شناخته شد. بدین معنا که بازگشت سرمایه برای اولین دسته از سرمایه‌گذاران اولیه، به ۱۰۰ برابر سرمایه‌گذاری آن‌ها محدود می‌شد. سپس این سقف به ۲۰ برابر و بعداً به ۶ برابر کاهش یافت، اما نیت اصلی این بود که بازدهی سرمایه به سرمایه‌گذاران اولیه تضمین شود. این ساختار بسیار غیرمعمول بود، زیرا معمولاً استارتاپ‌ها ساختار غیرانتفاعی ندارند یا از یک غیرانتفاعی به یک انتفاعی تبدیل نمی‌شوند. این تغییر ساختار، بحث‌های زیادی را در مورد حکمرانی شرکتی (corporate governance) و چگونگی همزیستی اهداف انتفاعی و غیرانتفاعی در یک سازمان برانگیخت.

H3: نبرد بر سر کنترل: جدال ماسک و آلتمن

تغییر ساختار به یک نهاد انتفاعی، بلافاصله منجر به درگیری‌های داخلی بر سر رهبری و کنترل شد، به ویژه بین دو بنیان‌گذار اصلی، ایلان ماسک و سم آلتمن. در ابتدا، زمانی که ایده ایجاد یک نهاد انتفاعی مطرح شد، قرار نبود که این نهاد حتماً در دل سازمان غیرانتفاعی قرار گیرد؛ آن‌ها به دنبال تبدیل کل مجموعه به یک “شرکت با منافع عمومی” (public benefit corporation) بودند. اما مشکل اصلی در این مرحله، توافق بر سر اینکه چه کسی مدیرعامل (CEO) این نهاد جدید خواهد بود، پیش آمد. هم آلتمن و هم ماسک هر دو تمایل داشتند مدیرعامل باشند و نتوانستند به توافق برسند.

نکته جالب توجه این است که دو بنیان‌گذار دیگر، گرگ براکمن (مدیر ارشد فناوری) و ایلیا ساتسگوِر (دانشمند ارشد)، در ابتدا ماسک را انتخاب کردند. آن‌ها معتقد بودند که ماسک از شهرت، نفوذ، قدرت استراتژیک و وضوح بیشتری برخوردار است تا OpenAI را در مسیری که به آن اعتقاد داشتند، هدایت کند. اما آلتمن با استفاده از رابطه شخصی خود با براکمن، او را متقاعد کرد. آلتمن از براکمن پرسید: “آیا واقعاً فکر می‌کنی ماسک قابل اعتماد است؟ آیا واقعاً فکر می‌کنی اگر هوش مصنوعی این فناوری قدرتمند است، باید توسط این فرد دیگر کنترل شود؟ چطور می‌توانی این کار را با من، دوست نزدیکت، بکنی؟”. براکمن به سرعت متقاعد شد و سپس ساتسگوِر را نیز که در آن زمان به او نزدیک بود، متقاعد کرد. در نهایت، ساتسگوِر نیز تصمیم گرفت که آلتمن به جای ماسک مدیرعامل شود.

این تصمیم نقطه عطفی در تاریخ OpenAI بود و منجر به خروج ایلان ماسک از پروژه شد. ماسک گفت: “اگر من مدیرعامل نباشم، اگر کنترل را در دست نداشته باشم و حالا این شرکت از غیرانتفاعی به انتفاعی تبدیل می‌شود، من خارج خواهم شد”. او از سمت رئیس مشترک کنار رفت، اما سال‌ها بعد نیز نقش غیرمستقیمی داشت؛ او یکی از معاونان خود از نورالینک، سیوبهان زیلیس، را در هیئت مدیره OpenAI قرار داد تا همچنان اطلاعاتی به او برساند. این جدال بر سر کنترل نشان‌دهنده آغاز مسیر پیچیده‌ای بود که در آن قدرت و منافع شخصی، در کنار اهداف بلندپروازانه فناورانه، نقش محوری ایفا کردند.

مفهوم “امپراتوری هوش مصنوعی”

کارن هاو، در کتاب خود، شرکت‌های فعال در حوزه هوش مصنوعی، مانند OpenAI، را نه تنها به عنوان شرکت‌های فناوری، بلکه به عنوان “امپراتوری‌های جدید” توصیف می‌کند. او استدلال می‌کند که این “امپراتوری‌های هوش مصنوعی” دارای ویژگی‌هایی مشابه امپراتوری‌های کهن هستند، که از جمله آن‌ها می‌توان به ادعای مالکیت بر منابعی که متعلق به آن‌ها نیست، استثمار نیروی کار، انحصار تولید دانش، و ساخت روایت‌هایی برای توجیه اقدامات خود اشاره کرد. این مفهوم چارچوبی قدرتمند برای درک دینامیک‌های قدرت و کنترل در اکوسیستم هوش مصنوعی امروز ارائه می‌دهد.

H3: ادعای منابع: داده‌ها به عنوان قلمرو جدید

یکی از برجسته‌ترین ویژگی‌های “امپراتوری‌های هوش مصنوعی” که هاو به آن اشاره می‌کند، ادعای مالکیت بر منابعی است که متعلق به آن‌ها نیست. این منابع در عصر دیجیتال، عمدتاً به داده‌ها اشاره دارد. شرکت‌های هوش مصنوعی مقادیر عظیمی از داده‌ها را از اینترنت “اسکرپ” (scrape) می‌کنند. استدلال آن‌ها این است که این داده‌ها به صورت عمومی در دسترس هستند و بنابراین، آن‌ها حق دارند از آن استفاده کنند.

اما هاو این استدلال را به چالش می‌کشد. او معتقد است بسیاری از افرادی که اطلاعات خود را در اینترنت منتشر کرده‌اند، این کار را با رضایت آگاهانه برای استفاده از داده‌هایشان در آموزش مدل‌های هوش مصنوعی انجام نداده‌اند؛ مدل‌هایی که در نهایت ممکن است فرصت‌های اقتصادی آینده خود آن‌ها را محدود کند. این عمل، شباهت زیادی به تصرف زمین‌ها و منابع طبیعی توسط امپراتوری‌های کهن دارد، با این تفاوت که در اینجا “سرزمین” در واقع “داده” است. موضوع حق مالکیت فکری و حق انتخاب (opt-in یا opt-out) برای استفاده از محتوای افراد در آموزش مدل‌ها، به یک چالش حقوقی و اخلاقی جدی تبدیل شده است. نویسندگان و هنرمندان زیادی در حال حاضر علیه این شرکت‌ها شکایت کرده‌اند تا مالکیت خود را بر داده‌هایشان پس بگیرند. هاو استدلال می‌کند که این مشکل می‌توانست با گفتگوی عمومی در مورد اینکه چه داده‌هایی باید برای آموزش مدل‌ها استفاده شود، کاهش یابد. به عنوان مثال، تصمیم OpenAI برای آموزش مدل‌های تولید تصویر خود بر روی محتوای پورنوگرافی، با این استدلال که “نماینده تجربه انسانی است”، پیامدهای گسترده‌ای داشته است، از جمله توانایی این مدل‌ها در تولید مواد سوءاستفاده جنسی از کودکان. این تصمیمات بدون مشورت با عموم یا حتی متخصصان خارج از حوزه‌های خاص خودشان گرفته شده‌اند.

H3: استثمار نیروی کار: پنهان و آشکار

ویژگی دوم “امپراتوری‌های هوش مصنوعی”، استثمار نیروی کار است. این استثمار به دو شکل اصلی بروز می‌کند:

  1. استثمار در زنجیره تأمین توسعه هوش مصنوعی: شرکت‌هایی مانند OpenAI، کارگران قراردادی در سراسر جهان، به ویژه در کشورهای جنوب جهانی (Global South)، را برای انجام وظایفی مانند “برچسب‌گذاری داده” (data annotation)، “اعتدال محتوا” (content moderation) و سایر وظایف مرتبط با آموزش و بهبود مدل‌های هوش مصنوعی استخدام می‌کنند. این کارگران در شرایط بسیار استثمارگرانه و روان‌شناختی سمی، با دستمزدهایی در حدود ۲ دلار در ساعت، کارهایی را انجام می‌دهند که برای سلامت روان آن‌ها مضر است. این لایه‌های پنهان توسعه هوش مصنوعی، مشابه کار اجباری و استثمار در امپراتوری‌های کهن، از دید عموم پنهان می‌ماند.
  2. هدف نهایی هوش مصنوعی: خودکارسازی نیروی کار: علاوه بر استثمار در فرآیند توسعه، هدف صریح OpenAI برای AGI (هوش مصنوعی عمومی)، ایجاد “سیستم‌های بسیار خودمختار” است که در “اغلب کارهای دارای ارزش اقتصادی، بهتر از انسان‌ها عمل کنند”. این تعریف به وضوح نشان می‌دهد که نیت آن‌ها ایجاد ماشین‌هایی است که نیروی کار انسانی را خودکارسازی کنند. بنابراین، هم فرآیند توسعه هوش مصنوعی (زنجیره تأمین) و هم نتیجه نهایی آن (ماشین‌های خودکارساز) به “استثمار نیروی کار” منجر می‌شود.

H3: انحصار تولید دانش: کنترل روایت و پژوهش

ویژگی سوم “امپراتوری‌ها”، انحصار تولید دانش است. در طول ده سال گذشته، تغییر چشمگیری در توزیع محققان هوش مصنوعی مشاهده شده است. پیش از این، اکثر محققان هوش مصنوعی در محیط‌های آکادمیک یا موسسات مستقل فعالیت می‌کردند. اما اکنون، بخش عمده‌ای از این محققان، یا مستقیماً برای شرکت‌های بزرگ هوش مصنوعی کار می‌کنند، یا توسط آن‌ها تأمین مالی می‌شوند. این پدیده به معنای آن است که بخش عمده‌ای از تحقیقات هوش مصنوعی که “بستر درک عمومی از چگونگی عملکرد این فناوری و محدودیت‌های آن” را تشکیل می‌دهد، از فیلتر “آنچه برای شرکت‌ها خوب است و آنچه خوب نیست” عبور می‌کند. دانش تولید شده، به نفع “امپراتوری” فیلتر و کنترل می‌شود.

این انحصار به ویژه در بحث “مدل‌های منبع باز در مقابل منبع بسته” (open-source vs. closed-source) هوش مصنوعی آشکار می‌شود. کارن هاو به وضوح معتقد است که برای از بین بردن این انحصار دانش، نیاز به مدل‌های “منبع باز” بیشتری داریم. او استدلال می‌کند که بدون دسترسی به داده‌های آموزشی و مدل‌ها، محققان مستقل نمی‌توانند به طور دقیق عملکرد مدل‌ها را ارزیابی کنند. این عدم شفافیت، اعتبار ارزیابی‌های فعلی مدل‌های هوش مصنوعی را زیر سوال می‌برد، زیرا مشخص نیست که آیا مدل‌ها صرفاً اطلاعات را حفظ کرده‌اند یا واقعاً قابلیت‌های جدیدی را توسعه داده‌اند. به عنوان مثال، هاو به داستانی اشاره می‌کند که در آن بیل گیتس تحت تاثیر مدلی قرار گرفت که ظاهراً توانسته بود در آزمون زیست‌شناسی AP نمره کامل بگیرد، اما هاو سوال می‌کند که آیا مدل صرفاً بر روی داده‌های شامل این آزمون آموزش دیده بود یا واقعاً قابلیت استدلال را توسعه داده بود. این کنترل بر دانش و قابلیت ارزیابی مستقل، یکی از پایه‌های قدرت “امپراتوری‌های هوش مصنوعی” است.

H3: روایت‌سازی: مأموریت تمدن‌ساز و تهدید “دشمن”

آخرین ویژگی امپراتوری‌ها، ساخت روایت است. همیشه یک داستان وجود دارد که بر اساس آن، “امپراتوری ما خوب است” و “امپراتوری‌های دیگر بد هستند”. توجیه “امپراتوری خوب” برای “استخراج منابع” و “استثمار نیروی کار” این است که باید به اندازه‌ای قوی شوند تا بتوانند “امپراتوری بد” را شکست دهند. این “امپراتوری‌های هوش مصنوعی” خود را “خوب” می‌دانند زیرا معتقد به یک “مأموریت تمدن‌ساز” هستند: این ایده که در نهایت چیزی را خلق خواهند کرد که “پیشرفت و مدرنیته را برای تمام بشریت” به ارمغان خواهد آورد و به بشریت اجازه خواهد داد تا “شکوفا شود”.

این روایت‌سازی در مأموریت مبهم OpenAI که “اطمینان از سودمندی AGI برای تمام بشریت” است، کاملاً مشهود است. هاو اشاره می‌کند که تا به امروز، هیچ توافقی درون OpenAI در مورد معنای واقعی عبارات “اطمینان از”، “AGI چیست” و “سودمندی برای تمام بشریت” وجود ندارد. این ابهام باعث می‌شود که مأموریت به یک “ابزار روایت‌سازی برای امپراتوری” تبدیل شود. این مأموریت توسط کارمندان و مدیران بر اساس تصورات خودشان تفسیر و بازتفسیر می‌شود، و به نوعی “پسا‌عقلانی‌سازی” برای کارهایی است که در وهله اول می‌خواستند انجام دهند.

این روایت همچنین در بحث‌های ژئوپلیتیکی، به ویژه بین ایالات متحده و چین، نمایان می‌شود. شرکت‌های آمریکایی اغلب از کارت “چه می‌شود اگر چین…؟” استفاده می‌کنند تا از هرگونه مقررات‌گذاری در داخل کشور جلوگیری کنند. استدلال آن‌ها این است که اگر ما مقررات وضع کنیم، چین برتری پیدا خواهد کرد و نسخه چینی هوش مصنوعی، که به نظر آن‌ها “شرور” است، مسلط خواهد شد. اما هاو این استدلال را به چالش می‌کشد و می‌گوید که چین اتفاقاً به شدت هوش مصنوعی را تنظیم می‌کند، حتی بیشتر از ایالات متحده. او معتقد است که این روایت “امپراتوری خوب در برابر امپراتوری شر” منجر به توسعه فناوری‌های دموکراتیک‌تر نشده، بلکه به فناوری‌های اقتدارگراتر منجر شده است، و موجب “فروپاشی آهسته لیبرالیسم در سراسر جهان” به دست شرکت‌های سیلیکون ولی شده است. بنابراین، این روایت‌سازی نه تنها برای توجیه اقدامات داخلی، بلکه برای پیشبرد اهداف ژئوپلیتیکی و جلوگیری از نظارت خارجی نیز به کار می‌رود.

مأموریت مبهم و بحران حکمرانی OpenAI

مأموریت اولیه OpenAI برای “اطمینان از سودمندی AGI برای تمام بشریت”، هرچند زیبا و آرمانی به نظر می‌رسید، اما در عمل به دلیل عدم وضوح و تعریف مشخص، به ابزاری برای روایت‌سازی و توجیه اقدامات مختلف تبدیل شد. این ابهام، در کنار ساختار حکمرانی منحصربه‌فرد و ایدئولوژی‌های متضاد داخلی، در نهایت به بحران برکناری سم آلتمن منجر شد، که نقطه عطفی در تاریخ OpenAI و صنعت هوش مصنوعی بود.

H3: “اطمینان از سودمندی AGI برای تمام بشریت”: مأموریتی بدون تعریف

کارن هاو اشاره می‌کند که وقتی برای اولین بار شروع به پوشش خبری OpenAI کرد، نسبت به زبان پرطمطراق این شرکت شک داشت. با این حال، او اذعان می‌کند که “ایده توسعه فناوری برای منفعت تمام بشریت”، اگر به طور جدی دنبال شود، “زیبا” و “آرزویی است که همه باید به آن دست یابند”. اما هاو در کتابش نتیجه می‌گیرد که این مأموریت خاص OpenAI، “فاقد وضوح و تعریف” است، تا جایی که به یک “ابزار روایت‌سازی امپراتوری” تبدیل شده است.

به گفته هاو، مأموریت کامل OpenAI این است: “اطمینان از سودمندی AGI برای تمام بشریت”. اما درون خود OpenAI، هیچ توافقی بر سر معنای “اطمینان از”، “AGI چیست” و “سودمندی برای تمام بشریت” وجود ندارد. این یعنی “هیچ توافقی بر سر هیچ بخشی از این مأموریت” وجود ندارد. در نتیجه، مأموریت بارها و بارها توسط کارمندان و مدیران، بر اساس “تصورات خودشان از آنچه می‌خواهند انجام دهند”، تفسیر و بازتفسیر می‌شود. هاو این پدیده را “پساعقلانی‌سازی” (post-rationalization) توصیف می‌کند، به این معنی که افراد ابتدا کاری را انجام می‌دهند و سپس آن را با مأموریت کلی “سودمندی برای تمام بشریت” توجیه می‌کنند. این ابهام، فضای زیادی را برای تعارض منافع و تصمیم‌گیری‌های مبهم فراهم می‌کند.

H3: برکناری سم آلتمن: نبرد ایدئولوژیک و مسائل شفافیت

بحران برکناری سم آلتمن، مدیرعامل OpenAI، در یک جمعه شب، نقطه اوج این چالش‌های حکمرانی و ابهامات بود. این اتفاق واکنش عظیمی را در سیلیکون ولی برانگیخت و بسیاری آن را با برکناری استیو جابز از اپل در سال ۱۹۸۵ مقایسه کردند. هاو توضیح می‌دهد که دو نیروی اصلی در پشت این بحران هیئت مدیره وجود داشت:

  1. برخورد ایدئولوژیک شبه‌مذهبی: این برخورد بین دو جناح در دنیای هوش مصنوعی، به نام‌های “بومرها” (Boomers) و “دومرها” (Doomers) رخ داد. “بومرها” اعتقاد دارند که AGI یوتوپیا (آرمان‌شهر) را به ارمغان خواهد آورد. در مقابل، “دومرها” معتقدند که AGI بشریت را نابود خواهد کرد. هاو هر دو گروه را “دو روی یک سکه” می‌داند، زیرا هر دو به شدت به ایده “بازآفرینی هوش انسانی” باور دارند، در حالی که هیچ مدرک علمی برای اثبات این امکان وجود ندارد. اعتقاد آن‌ها این است که این فناوری به “تحول تمدنی” منجر خواهد شد و به همین دلیل باید کنترل توسعه آن را در دست بگیرند. در زمان برکناری آلتمن، هیئت مدیره بیشتر “دومرگرا” بود، در حالی که OpenAI و به ویژه آلتمن، رفتارهای “بومرگرا” را از خود نشان می‌دادند. این تضاد عمیق، نگرانی‌های جدی را نه تنها در هیئت مدیره، بلکه در میان مدیران اجرایی نیز ایجاد کرده بود.
  2. “رابطه سست با حقیقت” سم آلتمن: نیروی دوم، “رابطه سست” آلتمن “با حقیقت” بود. اگرچه بسیاری از مدیران سیلیکون ولی ممکن است در این زمینه شهرت داشته باشند، اما وقتی “خطرات بالقوه تفاوت بین آوردن بشریت به یوتوپیا یا ویرانی” در میان باشد، رفتارهایی که در یک استارتاپ معمولی عادی یا قابل مدیریت به نظر می‌رسند، “فوق‌العاده پیامددار” می‌شوند.

هیئت مدیره، به صورت تصادفی، متوجه شد که آلتمن در مورد برخی مسائل حقیقت را نمی‌گوید. یکی از این موارد این بود که صندوق سرمایه‌گذاری استارتاپی OpenAI (به نام OpenAI Startup Fund)، که برای سرمایه‌گذاری در استارتاپ‌هایی که از فناوری OpenAI استفاده می‌کردند تأسیس شده بود، در واقع متعلق به خود آلتمن بود. همچنین، آن‌ها متوجه شدند که آلتمن ادعا می‌کرد “همه بررسی‌های ایمنی فوق‌العاده‌ای در شرکت وجود دارد و همه چیز به آرامی پیش می‌رود”، در حالی که در واقع، “تعدادی از بررسی‌های ایمنی نادیده گرفته شده بودند” و آلتمن “مدام سعی در نادیده گرفتن آن‌ها داشت”. علاوه بر این، پس از عرضه ChatGPT، شرکت با “هرج و مرج زیادی” روبرو بود، زیرا مجبور بود با سرعتی بی‌سابقه مقیاس‌گذاری کند تا صدها میلیون کاربر جدید را پشتیبانی کند.

همزمان با نگرانی‌های هیئت مدیره، دو مدیر اجرایی دیگر، ایلیا ساتسگوِر (که در هیئت مدیره نیز بود) و میرا موراتی (مدیر ارشد فناوری)، به طور مستقل نگرانی‌های مشابهی را به هیئت مدیره منتقل کردند. ساتسگوِر، که بیشتر “دومرگرا” بود، این مسائل را بسیار جدی می‌دانست. میرا موراتی، بدون اینکه لزوماً “دومرگرا” یا “بومرگرا” باشد، به شدت به “حکمرانی شرکتی خوب” اعتقاد داشت و از تلاش‌های مداوم آلتمن برای نادیده گرفتن مکانیسم‌های حکمرانی نگران بود. ساتسگوِر و موراتی با یکدیگر هماهنگ شدند و نمونه‌های نگرانی‌های خود را جمع‌آوری کردند. در نهایت، ساتسگوِر به مدیران مستقل هیئت مدیره توصیه کرد که “فکر نمی‌کنم این مشکل حل شود مگر اینکه سم برود”. هیئت مدیره، پس از بحث‌های فشرده و بررسی نگرانی‌های خود، با او موافقت کرد و آلتمن را برکنار کرد.

H3: نقش سرمایه‌گذاران و مایکروسافت: قدرت اقتصاد بر حکمرانی

برکناری سم آلتمن بلافاصله با واکنش شدید سرمایه‌گذاران و کارمندان مواجه شد. در آن زمان، OpenAI در حال یک پیشنهاد خرید سهام (tender offer) بود که شرکت را ۸۶ میلیارد دلار ارزش‌گذاری می‌کرد. کارمندان به سرعت با سم آلتمن همراه شدند، که بخشی از آن به دلیل منافع مالی مرتبط با پیشنهاد سهام بود. این نشان داد که آلتمن روابط گسترده‌ای در سیلیکون ولی داشت.

سرمایه‌گذاران، از جمله مایکروسافت، در این ماجرا هیچ حق و حقوقی نداشتند که بتوانند دخالت کنند، زیرا هیئت مدیره غیرانتفاعی طبق اساسنامه اختیارات گسترده‌ای داشت. جالب اینجاست که سم آلتمن خودش یکی از کسانی بود که هنگام تأسیس شرکت غیرانتفاعی، این اختیارات گسترده را تدوین کرده بود. با این حال، سرمایه‌گذاران به وضوح دریافتند که این وضعیت به نفع آن‌ها نیست. کارن هاو اشاره می‌کند که وقتی در OpenAI سرمایه‌گذاری می‌کنید، یک “جعبه بنفش غول‌پیکر” روی اسناد سرمایه‌گذاری وجود دارد که می‌گوید: “سرمایه‌گذاری شما می‌تواند در هر لحظه به صفر برسد به دلیل ساختار حکمرانی شرکتی منحصربه‌فرد ما. این را به عنوان یک کمک مالی تلقی کنید”. اما هاو تاکید می‌کند که سرمایه‌گذاران با این فرض عمل نمی‌کردند، زیرا آلتمن هنگام جذب سرمایه، آن را به عنوان یک “سرمایه‌گذاری امن” و “بسیار پربازده” معرفی می‌کرد.

مایکروسافت، به عنوان سرمایه‌گذار اصلی OpenAI، با هوشیاری فراوان سعی کرد از وضعیت سوءاستفاده کند و تقریباً شرکت را “با قیمت صفر” به دست آورد، با پیشنهاد اینکه کارمندان و رهبران OpenAI به مایکروسافت بپیوندند و کار خود را در آنجا ادامه دهند. در نهایت، فشار عظیم کارمندان و سرمایه‌گذاران منجر به بازگشت سم آلتمن شد. اما از آن زمان، سرمایه‌گذاران به شدت فشار آورده‌اند تا ساختار شرکت تغییر کند. آن‌ها خواستار این هستند که OpenAI صرفاً یک شرکت انتفاعی باشد و هیئت مدیره انتفاعی داشته باشد که دارای “مسئولیت امانتداری قانونی (fiduciary responsibility) در قبال سهامداران و سرمایه‌گذاران” باشد. این وضعیت به وضوح نشان‌دهنده کشمکش بین اصول حکمرانی و منافع اقتصادی در قلب “امپراتوری‌های هوش مصنوعی” است.

پیامدهای مقیاس به هر قیمت

یکی از مفاهیم محوری در تحلیل کارن هاو از “امپراتوری‌های هوش مصنوعی”، رویکرد “مقیاس به هر قیمت” (scale at all costs) است که ریشه در فلسفه “حرکت سریع و شکستن چیزها” (move fast and break things) در سیلیکون ولی دارد. این رویکرد، در حالی که سرعت رشد و نوآوری را تسریع می‌کند، اما پیامدهای زیست‌محیطی، اجتماعی و حتی دموکراتیک مخربی را به همراه دارد. هاو به شدت نسبت به این مسیر بدبین است و معتقد است که “به خوبی پیش نمی‌رود”.

H3: فلسفه “حرکت سریع و شکستن چیزها” در عصر هوش مصنوعی

فلسفه “حرکت سریع و شکستن چیزها” دهه‌هاست که در سیلیکون ولی رواج دارد و به شرکت‌ها اجازه می‌دهد تا با سرعت بی‌نظیری نوآوری کنند و محصولات جدید را بدون نگرانی از پیامدهای احتمالی به بازار عرضه کنند. در حوزه هوش مصنوعی، این رویکرد به معنای “مقیاس‌گذاری با سرعتی باورنکردنی” است. هاو توضیح می‌دهد که شرکت‌هایی مانند OpenAI و دیگران، برای آموزش مدل‌های خود به زیرساخت‌های محاسباتی عظیم و بی‌سابقه‌ای نیاز دارند. این نیاز به مقیاس‌گذاری، از نقطه نظر تجاری، برای رقابت و پیشگامی در بازار ضروری تلقی می‌شود.

اما هاو تاکید می‌کند که او منتقد همه انواع هوش مصنوعی نیست؛ بسیاری از ابزارهای هوش مصنوعی می‌توانند بسیار مفید باشند. انتقاد او مشخصاً به “دیدگاه سیلیکون ولی از توسعه هوش مصنوعی” است که همین “مقیاس به هر قیمت” است. این رویکرد، منجر به تمرکز بر ساخت مدل‌های بزرگ و قدرتمند بدون توجه کافی به پیامدهای جانبی آن می‌شود.

H3: مصرف انرژی و تأثیرات زیست‌محیطی: هزینه‌های پنهان AGI

یکی از مهم‌ترین و نگران‌کننده‌ترین پیامدهای رویکرد “مقیاس به هر قیمت”، مصرف عظیم انرژی و تأثیرات مخرب زیست‌محیطی است. هاو به گزارش مک‌کینزی اشاره می‌کند که پیش‌بینی کرده است در ۵ سال آینده، نیاز به انرژی جهانی برای پشتیبانی از زیرساخت‌های محاسباتی هوش مصنوعی، بین ۲ تا ۶ برابر کل تقاضای انرژی ایالت کالیفرنیا افزایش خواهد یافت.

سم آلتمن، در اظهاراتش در سنا، اشاره کرده بود که این نیاز عمدتاً توسط گاز طبیعی تأمین خواهد شد. اما هاو این را به این معنی تعبیر می‌کند که “قطعا باید بخشی از آن توسط سوخت‌های فسیلی تأمین شود”. گزارش‌های روزنامه‌نگاران نیز نشان می‌دهد که توسعه مراکز داده، منجر به “تمدید عمر نیروگاه‌های زغال‌سنگ” شده است که قرار بود بازنشسته شوند. به عنوان مثال، هاو اشاره می‌کند که XAI (شرکت ایلان ماسک) در حال آموزش چت‌بات Grok خود بر روی ابرکامپیوتری به نام Colossus در ممفیس، تنسی است. این ابرکامپیوتر در حال حاضر توسط “۳۶ نیروگاه گاز متان بدون مجوز” تأمین نیرو می‌شود که “هزاران تن آلودگی هوا را به جامعه تزریق می‌کنند”.

این نمونه‌ها به وضوح نشان می‌دهد که “مقیاس به هر قیمت” به “محیط زیست آسیب می‌رساند”. اگر این روند را به آینده گسترش دهیم، “به وضعیت نهایی وحشتناکی خواهیم رسید”. این مصرف انرژی و آلودگی، هزینه‌های پنهانی است که “امپراتوری‌های هوش مصنوعی” برای پیشرفت خود به جامعه و کره زمین تحمیل می‌کنند.

H3: توسعه فناوری‌های اقتدارگرا: “از هم پاشیدگی لیبرالیسم”

علاوه بر پیامدهای زیست‌محیطی، رویکرد “مقیاس به هر قیمت” و روایت‌سازی مرتبط با آن (نظیر “مقایسه با چین”)، به توسعه فناوری‌هایی منجر می‌شود که به جای تقویت دموکراسی، آن را تضعیف می‌کنند. شرکت‌های سیلیکون ولی برای جلوگیری از مقررات‌گذاری در ایالات متحده، اغلب از کارت “چه می‌شود اگر چین…” استفاده می‌کنند. آن‌ها ادعا می‌کنند که اگر آمریکا قوانین را سخت‌گیرانه کند، چین که ظاهراً هیچ مقرراتی ندارد، پیشتاز خواهد شد و این برای امنیت ملی ایالات متحده بد خواهد بود.

اما هاو این استدلال را “یک نقص کلیدی” می‌داند، زیرا چین در واقع به شدت در حال تنظیم‌گری هوش مصنوعی است. چین دومین نهاد پس از اتحادیه اروپا است که بیشترین قوانین و مقررات هوش مصنوعی را اجرا کرده است، از جمله قوانین قوی حفظ حریم خصوصی داده‌ها و امنیت سایبری. در مقابل، ایالات متحده حتی یک قانون فدرال حفظ حریم خصوصی داده‌ها هم ندارد. هاو اشاره می‌کند که اخیراً جمهوری‌خواهان در مجلس نمایندگان، بند قانونی را تصویب کرده‌اند که “۱۰ سال توقف بر مقررات‌گذاری هوش مصنوعی در سطح ایالتی” ایجاد می‌کند و این طرح در حال حاضر به سنا فرستاده شده است. این نشان می‌دهد که در آمریکا، به جای مقررات‌گذاری، تمایل به حذف “حصارها” (guardrails) بیشتر است.

هاو استدلال می‌کند که این رویکرد “چه می‌شود اگر چین…” در یک دهه گذشته، به توسعه “فناوری‌های دموکراتیک‌تر” منجر نشده، بلکه “به عکس آن، فناوری‌های اقتدارگراتر” را به ارمغان آورده است. او این شرکت‌ها را “تکنو-اقتدارگرا” (techno-authoritarians) می‌نامد، زیرا “هیچ کس را در مورد چگونگی توسعه پلتفرم‌های خود یا محل استقرار این فناوری‌ها مشارکت نمی‌دهند”. هاو نتیجه می‌گیرد که ما شاهد “فروپاشی آهسته لیبرالیسم در سراسر جهان به دست شرکت‌های سیلیکون ولی” هستیم. او تاکید می‌کند که برای ایجاد هوش مصنوعی دموکراتیک‌تر، نباید “همه حصارها را پاره کرد”، بلکه باید “بیشتر از آن‌ها را پیاده‌سازی کرد”. این پیامدها نشان می‌دهند که “مقیاس به هر قیمت” نه تنها به محیط زیست آسیب می‌رساند، بلکه می‌تواند بنیان‌های دموکراسی را نیز سست کند.

چالش‌های رقابتی و مهاجرت نخبگان

درون “امپراتوری هوش مصنوعی” OpenAI، جدای از بحران حکمرانی که به برکناری سم آلتمن منجر شد، چالش‌های رقابتی و ایدئولوژیک عمیق‌تری نیز وجود داشت که به “مهاجرت نخبگان” (talent exodus) و شکل‌گیری شرکت‌های رقیب جدید منجر شد. این پدیده نه تنها بیانگر اختلافات شخصی و نفسانی است، بلکه نشان‌دهنده تفاوت دیدگاه‌های بنیادی در مورد چگونگی شکل‌دهی به آینده هوش مصنوعی است.

H3: جدایی بنیان‌گذاران و مدیران ارشد از OpenAI

همانطور که کارن هاو اشاره می‌کند، جدایی بسیاری از چهره‌های کلیدی و بنیان‌گذاران اولیه OpenAI، از جمله ایلان ماسک، داریو آمادِی (Dario Amodei) و میرا موراتی، ریشه‌های پیچیده‌ای دارد. هاو معتقد است که این جدایی‌ها هم ناشی از “کشمکش‌های نفسانی و شخصیتی” و هم “کشمکش‌های ایدئولوژیک” بوده است.

بسیاری از مدیران سابق OpenAI (که اکنون بیشتر آن‌ها شرکت را ترک کرده‌اند) درک می‌کردند یا تشخیص داده بودند که “توانایی شکل‌دهی به هوش مصنوعی، نفوذ عمیقی بر جامعه آینده ما خواهد داشت”. اما آن‌ها “اختلاف نظرهایی در مورد چگونگی شکل‌دهی به هوش مصنوعی” داشتند. تا زمانی که با آلتمن همسو بودند، OpenAI را بهترین مکان برای شکل‌دهی به این فناوری می‌دانستند. اما وقتی دیدگاه‌های آن‌ها با آلتمن در زمینه‌های ایدئولوژیک در تضاد قرار گرفت، “از هم جدا شدند” تا سازمان‌های خود را ایجاد کنند. آن‌ها معتقد بودند که بهترین راه برای “تجلی بخشیدن به چشم‌انداز خود از هوش مصنوعی”، ایجاد یک شرکت دیگر برای رقابت با OpenAI و تلاش برای شکست دادن آن‌ها در بازار است.

این پدیده جدایی، به شکل‌گیری چندین شرکت هوش مصنوعی برجسته دیگر منجر شده است:

  • ایلان ماسک پس از جدایی خود از OpenAI، شرکت XAI را تأسیس کرد.
  • داریو آمادِی، یکی از “دومرهای” برجسته در روزهای اولیه OpenAI، که دیدگاه‌های ایدئولوژیک متفاوتی با آلتمن داشت، Anthropic را بنیان‌گذاری کرد.
  • ایلیا ساتسگوِر، دانشمند ارشد و عضو هیئت مدیره که در برکناری آلتمن نقش داشت، پس از بازگشت آلتمن از OpenAI جدا شد و شرکت SSI (Superintelligence Startup Inc.) را تأسیس کرد.
  • میرا موراتی، مدیر ارشد فناوری سابق که نگران حکمرانی آلتمن بود، نیز OpenAI را ترک کرد و Thinking Machines Lab را بنیان‌گذاری کرد.

هاو این پدیده را به این شکل خلاصه می‌کند: “به معنای واقعی کلمه فقط انبوهی از جدایی‌ها است که همه به یک نتیجه می‌رسند: صبر کن، من می‌خواهم هوش مصنوعی به شکل و شمایل من باشد، من می‌خواهم هوش مصنوعی بر اساس آنچه من درست می‌دانم باشد. و حالا اجازه بدهید دقیقاً همان کاری را بکنم که آلتمن در ابتدا کرد، یعنی تلاش کنم شرکتی را تشکیل دهم که بسط اراده من باشد”. این نشان می‌دهد که حتی درون “امپراتوری”، نخبگان خود را به عنوان “معماران” آینده هوش مصنوعی می‌بینند و حاضرند برای تحقق دیدگاه خود، مسیر خود را در پیش گیرند.

H3: ظهور شرکت‌های رقیب و مدل “شرکت با منافع عمومی”

یکی از نکات جالب توجهی که هاو به آن اشاره می‌کند، این است که بسیاری از این شرکت‌های جدید، مانند Anthropic، به عنوان “شرکت‌های با منافع عمومی” (public benefit corporations) تأسیس شده‌اند. این نوع ساختار شرکتی، در تئوری، فراتر از ارزش سهامدار، وظیفه امانتداری (fiduciary duty) را در قبال بشریت نیز بر عهده می‌گیرد. این رویکرد، در مقایسه با ساختار منحصر به فرد و پیچیده OpenAI (یک شرکت انتفاعی در دل یک غیرانتفاعی) که مورد انتقاد شدید سرمایه‌گذاران پس از بحران آلتمن قرار گرفت، تلاش می‌کند تا نوعی تعادل بین اهداف انتفاعی و غیرانتفاعی برقرار کند. با این حال، هنوز باید دید که آیا این ساختارها در عمل به اهداف “منافع عمومی” خود به طور کامل متعهد خواهند ماند یا خیر.

این رقابت شدید و ظهور شرکت‌های جدید نشان می‌دهد که “امپراتوری” هوش مصنوعی فقط محدود به یک بازیگر نیست، بلکه میدان نبردی است که در آن دیدگاه‌ها و اراده‌های مختلف برای شکل‌دهی به آینده این فناوری با یکدیگر در حال رقابت هستند. این پویایی‌ها، چالش‌ها و فرصت‌های جدیدی را در زمینه حکمرانی و اخلاق هوش مصنوعی ایجاد می‌کند، چرا که هر “امپراتوری کوچک‌تر” نیز دیدگاه و رویکرد خود را در قبال “سودمندی برای بشریت” دارد.

جایگاه چین در توسعه هوش مصنوعی و رویکرد رگولاتوری

یکی از نقاط قوت بحث کارن هاو، به چالش کشیدن روایت غالب در ایالات متحده در مورد توسعه هوش مصنوعی در چین است. در حالی که شرکت‌های آمریکایی اغلب چین را به عنوان یک “امپراتوری شر” تصویر می‌کنند که بدون هیچ‌گونه مقرراتی به سرعت در حال پیشروی است، هاو این تصور را رد کرده و بینش‌های متفاوتی را ارائه می‌دهد.

H3: شکست روایت غالب: چین، یک تنظیم‌گر جدی هوش مصنوعی

روایت رایج در ایالات متحده این است که “چین هیچ چیز را تنظیم نخواهد کرد و هیچ‌گونه حفاظی نخواهد داشت” در زمینه هوش مصنوعی. این استدلال اغلب توسط شرکت‌های سیلیکون ولی مطرح می‌شود تا از مقررات‌گذاری در داخل آمریکا جلوگیری کنند، با این هشدار که در غیر این صورت، چین برتری خواهد یافت و نسخه “بسیار اقتدارگراتر” هوش مصنوعی خود را تحمیل خواهد کرد.

اما هاو به شدت با این دیدگاه مخالف است: “آن‌ها [چینی‌ها] اتفاقاً این کار را می‌کنند [مقررات‌گذاری می‌کنند]. بله، هر امپراتوری ادعا می‌کند که کارهایش را برای منفعت بشریت انجام می‌دهد. هیچ کس خود را آدم بد نمی‌داند”. او تاکید می‌کند که “چیزهایی که مردم اغلب در مورد توسعه هوش مصنوعی چین نمی‌دانند این است که چین اتفاقاً به شدت در حال تنظیم‌گری هوش مصنوعی است”.

در واقع، “چین پس از اتحادیه اروپا، بیشترین قوانین و مقررات هوش مصنوعی را اجرا کرده است”. این مقررات‌گذاری نه تنها شامل کاربردهای هوش مصنوعی می‌شود، بلکه قوانین جامع حفظ حریم خصوصی داده‌ها و قوانین امنیت سایبری بسیار قوی نیز دارد که قوانین هوش مصنوعی بر آن‌ها بنا شده‌اند. هاو این وضعیت را با اتحادیه اروپا مقایسه می‌کند که دارای مقررات GDPR (حفظ حریم خصوصی داده‌ها) است و قانون هوش مصنوعی اتحادیه اروپا نیز بر مبنای همین چارچوب‌ها بنا شده است. در مقابل، “ایالات متحده هنوز قانون فدرال حفظ حریم خصوصی داده‌ها ندارد” و بنابراین “هیچ چیز در نزدیکی اجرای نوعی قانون هوش مصنوعی نیست، زیرا هیچ چارچوبی برای آن نوع چارچوب وجود ندارد”.

هاو یک مثال ملموس از فقدان تمایل به مقررات‌گذاری در ایالات متحده ارائه می‌دهد: “اخیراً، لایحه مالیاتی که در کنگره تصویب شد و به مجلس نمایندگان رفت، جمهوری‌خواهان بندی را در آن گنجاندند تا یک توقف ۱۰ ساله بر مقررات‌گذاری هوش مصنوعی در سطح ایالتی قرار دهند”. اگر این لایحه در سنا تصویب شود، “به معنای واقعی کلمه هیچ توانایی قانونی برای اجرای مقررات هوش مصنوعی در سطح ایالتی برای یک دهه وجود نخواهد داشت”.

H3: پیامدهای نادیده گرفتن واقعیت چین: فناوری‌های اقتدارگرا

هاو نتیجه می‌گیرد که شرکت‌های سیلیکون ولی “همیشه از کارت ‘چه می‌شود اگر چین…’ استفاده خواهند کرد تا مقررات‌گذاری را دفع کنند”. اما “یک نقص کلیدی در استدلال آن‌ها این است که چین در واقع در حال حاضر این چیزها را تنظیم می‌کند”.

پیامد این رویکرد در ایالات متحده، به گفته هاو، این است که “اگر موجودی را از آنچه این کارت ‘چه می‌شود اگر چین…’ در دهه گذشته برای ما به ارمغان آورده است، برداریم، من استدلال می‌کنم که فناوری‌های دموکراتیک‌تری برای ما به ارمغان نیاورده است. در واقع، ما فقط فناوری‌های اقتدارگراتر به دست آورده‌ایم”. او معتقد است که “ما شاهد از هم پاشیدگی آهسته لیبرالیسم در سراسر جهان به دست شرکت‌های سیلیکون ولی بوده‌ایم”. هاو این شرکت‌ها را “تکنو-اقتدارگرا” می‌نامد، زیرا “آن‌ها واقعاً هیچ کس را در مورد چگونگی توسعه پلتفرم‌های خود مشارکت نمی‌دهند. آن‌ها واقعاً نمی‌پرسند که این فناوری‌ها کجا باید مستقر شوند”.

بنابراین، دیدگاه هاو این است که برای ایجاد هوش مصنوعی “دموکراتیک‌تر”، راه حل “پاره کردن همه حصارها نیست، بلکه در واقع اجرای بیشتر آن‌ها است”. این تحلیل نشان می‌دهد که درک صحیح از رویکردهای جهانی در مورد هوش مصنوعی، به ویژه در چین، برای اتخاذ سیاست‌های مؤثر و مسئولانه در کشورهای دیگر حیاتی است و نمی‌توان به روایات ساده‌انگارانه تکیه کرد.

چشم‌انداز آینده و توسعه اخلاقی هوش مصنوعی

با توجه به چالش‌های حکمرانی، اخلاقی، زیست‌محیطی و اجتماعی که “امپراتوری‌های هوش مصنوعی” ایجاد کرده‌اند، کارن هاو راهکارهایی را برای توسعه اخلاقی‌تر و مشارکتی‌تر هوش مصنوعی پیشنهاد می‌دهد. این راهکارها بر تغییر رویکرد از مدل فعلی “مقیاس به هر قیمت” به سمت یک الگوی شفاف‌تر، دموکراتیک‌تر و مسئولانه‌تر تأکید دارند.

H3: توسعه مشارکتی هوش مصنوعی: راهی رو به جلو

کارن هاو به شدت خواهان “توسعه مشارکتی‌تر هوش مصنوعی” است. او معتقد است که این مشارکت باید “تمام زنجیره تأمین توسعه هوش مصنوعی” را در بر گیرد. این زنجیره شامل “تمام مواد اولیه” که برای توسعه هوش مصنوعی استفاده می‌شوند و همچنین “تمام فضاهایی” که هوش مصنوعی در آن‌ها مستقر می‌شود، است. او تاکید می‌کند که “این مواد اولیه و این فضاها به صورت جمعی متعلق به همه هستند”.

  • مالکیت جمعی منابع (داده‌ها و زیرساخت‌ها): هاو مثال می‌زند که “داده‌هایی که این مدل‌ها بر اساس آن آموزش می‌بینند… این داده‌ها یا به صورت فردی متعلق به افراد هستند”. افراد بسیاری وجود دارند که مالکیت فکری آن‌ها بدون رضایت آگاهانه برای آموزش مدل‌ها استفاده شده است و اکنون آن‌ها از شرکت‌ها شکایت می‌کنند تا مالکیت خود را پس بگیرند. این مشکل می‌توانست با “بحث عمومی در مورد اینکه چه داده‌هایی باید برای آموزش این مدل‌ها استفاده شود” کاهش یابد. او به تصمیم OpenAI در مورد استفاده از تصاویر پورنوگرافی برای آموزش مدل‌های تولید تصویر اشاره می‌کند که بدون مشورت عمومی انجام شد و پیامدهای منفی از جمله توانایی تولید محتوای غیرقانونی از کودکان را به دنبال داشت. همچنین، مکان‌یابی مراکز داده در جوامع نیز باید یک “بحث جمعی” باشد. او داستان فعالان آب شیلیایی را مثال می‌زند که برای پنج سال جلوی ساخت مرکز داده گوگل را در جامعه خود گرفتند، زیرا این مرکز قرار بود تمام منابع آب شیرین آن‌ها را مصرف کند. این فعالان با اعتراضات و سازماندهی، دولت و گوگل را مجبور کردند تا با آن‌ها وارد گفتگو شوند و جامعه بتواند خواسته‌های خود را مطرح کند. این مثال نشان می‌دهد که وقتی جامعه “مالکیت جمعی” خود را بر منابعی که این شرکت‌ها نیاز دارند، “اثبات می‌کند”، می‌تواند تغییر ایجاد کند.
  • نقش جامعه و فعالان: هاو باور دارد که “همه نقش دارند” در شکل‌دهی به این فناوری. این نقش می‌تواند شامل “نویسندگانی که از شرکت‌ها شکایت می‌کنند”، “فعالانی که در برابر مراکز داده مقاومت می‌کنند”، یا “معلمان و دانشجویانی که بحث‌های جدی در مورد چگونگی استقرار هوش مصنوعی در محیط ما به گونه‌ای که تفکر انتقادی را تقویت کند به جای اینکه آن را از بین ببرد” دارند، باشد. او همچنین به گروهی از دانشجویان دانشگاه استنفورد اشاره می‌کند که در حال بررسی چگونگی استفاده از فعالیت دانشجویی برای تأثیرگذاری بر توسعه فناوری هستند.
  • لزوم گفت‌وگوی عمومی: هاو تاکید می‌کند که پاسخ به اینکه “چه کسی باید این بحث‌ها را رهبری کند، همه هستند”. هر کسی که نفوذی دارد، باید فضاهایی مانند بحث کنونی را برای این گفت‌وگوها فراهم کند و آن را در حوزه عمومی پیش ببرد. او مثال می‌زند که اساتید می‌توانند دوره‌های جدیدی را برای آموزش توسعه مسئولانه فناوری ایجاد کنند که می‌تواند “یک تغییر فرهنگی بزرگ” در میان فارغ‌التحصیلان آینده ایجاد کند.

H3: شفافیت در مدل‌های هوش مصنوعی

برای توسعه اخلاقی هوش مصنوعی، شفافیت حیاتی است. هاو به شدت از رویکرد منبع باز (open-source) دفاع می‌کند، زیرا معتقد است که تنها با مدل‌های باز می‌توان “انحصار تولید دانش را از بین برد”.

  • اهمیت رویکرد منبع باز: مدل‌های منبع باز به محققان مستقل اجازه می‌دهند تا مدل‌ها و مجموعه داده‌های آموزشی آن‌ها را بررسی کنند. این بررسی برای اطمینان از اینکه مدل‌ها صرفاً اطلاعات را حفظ نکرده‌اند، بلکه قابلیت‌های جدیدی را توسعه داده‌اند، ضروری است.
  • نقد ارزیابی‌های فعلی: هاو به شدت ارزیابی‌های فعلی مدل‌های هوش مصنوعی را زیر سوال می‌برد و آن‌ها را “کاملاً ساختگی” (totally bogus) می‌نامد، زیرا شرکت‌ها داده‌های آموزشی را منتشر نمی‌کنند. بدون دانستن داده‌های آموزشی، نمی‌توان به درستی ارزیابی کرد که آیا یک مدل واقعاً پیشرفت کرده است یا خیر. او دوباره به مثال بیل گیتس و آزمون زیست‌شناسی AP اشاره می‌کند و تاکید می‌کند که اگر مدل صرفاً بر اساس داده‌های شامل این آزمون آموزش دیده باشد، “به هیچ وجه به اندازه زمانی که به دلیل توسعه قابلیت‌های استدلال موفق شده باشد، چشمگیر نیست”.

H3: مقابله با توهم هوش انسانی

یکی دیگر از ابعاد حیاتی در توسعه اخلاقی هوش مصنوعی، درک درست از ماهیت این فناوری و مقابله با توهم هوش انسانی است. هاو به کار جوزف وایزنباوم (Joseph Weizenbaum)، مخترع اولین چت‌بات، الیزا، در دهه ۱۹۶۰ اشاره می‌کند.

  • درس‌هایی از تاریخچه چت‌بات‌ها: وایزنباوم، الیزا را برای نشان دادن اینکه این سیستم‌ها “یک سراب هستند” اختراع کرد. او می‌خواست نشان دهد که زبان “به طور منحصر به فردی فریبنده” است و “روان‌شناسی انسان به طور منحصر به فردی آسیب‌پذیر است” در برابر این باور که چیزهایی که با ما صحبت می‌کنند، دارای آگاهی هستند. هدف او افشای این “فریب” بود. اما حتی زمانی که او حقیقت را فاش کرد، مردم به او باور نکردند و فکر می‌کردند هوش انسانی بازآفرینی شده است. هاو می‌گوید که ما اکنون در حال شنیدن “تکرار همین لفاظی‌ها” هستیم: اینکه نیازی به معلمان، پزشکان یا درمانگران انسانی نخواهیم داشت. وایزنباوم حتی در آن زمان هشدار داد که اگر به دنبال بازآفرینی هوش انسانی باشیم، به نقطه‌ای خواهیم رسید که انسان‌ها نیز بیشتر شبیه ماشین‌ها عمل خواهند کرد.
  • ریشه‌های “فریب”: هاو توضیح می‌دهد که “تمام این چیزهایی که در مورد فریبنده بودن مدل‌ها، دروغ گفتن مدل‌ها و امثال آن وجود دارد، دقیقاً همان چیزی است که وایزنباوم در موردش صحبت می‌کرد”. او تاکید می‌کند: “ما قصد را به فناوری‌هایی نسبت می‌دهیم که در نهایت فقط توسط انسان‌ها خلق شده‌اند و در نهایت فقط هر چیزی را که شما می‌خواهید، از خود بیرون می‌دهند، و این ما هستیم که در دام آن می‌افتیم، نه اینکه مدل‌ها سعی در فریب ما داشته باشند”. این درک، برای توسعه مسئولانه هوش مصنوعی و اجتناب از خطرات اخلاقی و اجتماعی، ضروری است.

H3: نقش آکادمی و نهادهای مستقل

هاو معتقد است که برای مقابله با انحصار قدرت و دانش در دست “امپراتوری‌های شرکتی”، دولت‌ها باید “تحقیقات بسیار بیشتری را در خارج از امپراتوری‌های شرکتی تأمین مالی کنند”.

  • لزوم تأمین مالی تحقیقات مستقل: این تأمین مالی باید شامل آکادمی‌ها، سازمان‌های غیرانتفاعی کوچک‌تر، و شرکت‌های کوچک‌تر باشد. هدف نباید فقط تأمین مالی تحقیقات فنی باشد، بلکه باید به سازمان‌های حقوق بشر، سازمان‌های حقوق کار، و سازمان‌های آموزشی نیز منابع مالی اختصاص یابد تا آن‌ها نیز بتوانند در توسعه هوش مصنوعی مشارکت کنند.
  • توسعه شبکه‌ای از نهادهای مستقل: هاو با این ایده که “یک امپراتوری خوب دیگر برای مقابله با امپراتوری شر” ایجاد شود، موافق نیست. او معتقد است که “باید تعداد زیادی سازمان خارج از امپراتوری‌های شرکتی را تأمین مالی کنیم که هر کدام کار مستقل خود را با تخصص‌ها و موقعیت‌های خود انجام می‌دهند تا همه بتوانند به گفتگو کمک کنند، به جای اینکه صرفاً انحصار دیگری از دانش را در جای دیگری ایجاد کنیم”. این رویکرد شبکه‌ای، می‌تواند به یک اکوسیستم متنوع‌تر و دموکراتیک‌تر در توسعه هوش مصنوعی منجر شود.

H3: توصیه‌هایی برای استارتاپ‌های هوش مصنوعی

برای استارتاپ‌های کوچک‌تر که به دنبال رقابت در بازار هوش مصنوعی هستند، هاو توصیه‌های عملی ارائه می‌دهد.

  • تمرکز بر نوآوری در حوزه‌های تخصصی: او معتقد است که “اول از همه، فکر نمی‌کنم برای کسب و کار آن‌ها خوب باشد که سعی کنند با این شرکت‌ها بر سر مدل‌های هوش مصنوعی در مقیاس بزرگ رقابت کنند”. استارتاپ‌های هوش مصنوعی سرمایه لازم برای این کار را ندارند. بنابراین، هم از دیدگاه تجاری و هم از دیدگاه مسئولیت اجتماعی، “آن‌ها نباید در آن بازی رقابت کنند”.
  • خلق تصورات جدید از قابلیت‌های هوش مصنوعی: در عوض، استارتاپ‌ها می‌توانند “تصورات جدیدی از آنچه هوش مصنوعی می‌تواند انجام دهد، خلق کنند”. هاو مثال می‌زند که با یک بنیان‌گذار استارتاپی صحبت کرده که روی “هوش مصنوعی برای کشف علم مواد” تمرکز کرده و سعی دارد در این زمینه نوآوری کند. این کار “نشان می‌دهد چه چیزی با سیستم‌های هوش مصنوعی با محدوده باریک‌تر و اختصاصی‌تر برای یک بخش خاص از فرآیند علمی امکان‌پذیر است”. او معتقد است که “باید استارتاپ‌های بیشتری وجود داشته باشند که انواع دیگر ابزارهای هوش مصنوعی را نشان دهند که می‌توانند توسعه یابند و در نهایت به آنچه OpenAI ادعا می‌کند کمک می‌کند، کمک کنند؛ مانند هوش مصنوعی برای علم، هوش مصنوعی برای سیستم‌های انرژی انعطاف‌پذیرتر، هوش مصنوعی برای مراقبت‌های بهداشتی و امثال آن”. این رویکرد، راهی برای نوآوری مسئولانه و ایجاد ارزش واقعی در حوزه هوش مصنوعی است که فراتر از منطق “امپراتوری” و “مقیاس به هر قیمت” عمل می‌کند.

امیدها و ترس‌ها برای آینده هوش مصنوعی

در پایان تحلیل خود از “امپراتوری‌های هوش مصنوعی” و چالش‌های حکمرانی مرتبط با آن، کارن هاو به بیان امیدها و ترس‌های خود برای آینده این فناوری می‌پردازد. این دیدگاه‌ها، خلاصه‌ای از نگرانی‌های او و همچنین پتانسیل‌هایی است که در صورت تغییر مسیر، هوش مصنوعی می‌تواند برای بشریت به ارمغان آورد.

H3: بزرگترین امید: افزایش آگاهی و مشارکت عمومی

بزرگترین امید کارن هاو برای آینده هوش مصنوعی، در افزایش بی‌سابقه گفت‌وگو و آگاهی عمومی نهفته است. او یادآوری می‌کند که وقتی در سال ۲۰۱۸ شروع به پوشش خبری هوش مصنوعی کرد، بسیاری فکر می‌کردند این یک حوزه “بسیار خاص” است که ممکن است به اندازه کافی موضوع برای نوشتن نداشته باشد. اما اکنون، “همه در مورد آن فکر می‌کنند”. این تغییر در آگاهی و توجه، از نظر هاو، “شگفت‌انگیز است”، زیرا “ما نیاز داریم که همه در مورد آن فکر کنند و به طور خاص در مورد اینکه چه نقشی می‌توانند در شکل‌دهی به این فناوری ایفا کنند، بیاندیشند”.

هاو قویاً معتقد است که “همه نقش دارند”. این نقش می‌تواند شامل فعالیت‌های متنوعی باشد: از نویسندگانی که برای حقوق مالکیت فکری خود از شرکت‌ها شکایت می‌کنند، تا فعالانی که در برابر ساخت مراکز داده مقاومت می‌کنند، و یا معلمان و دانشجویانی که بحث‌های جدی در مورد چگونگی استقرار هوش مصنوعی به گونه‌ای که “تفکر انتقادی را تقویت کند به جای اینکه آن را از بین ببرد”، دارند.

امید او این است که از طریق تمام این بحث‌ها و مشارکت‌ها، “به نسخه‌ای از هوش مصنوعی دست خواهیم یافت که بسیار گسترده‌تر سودمند باشد”. این سودمندی گسترده‌تر، نتیجه “گفتمان عمومی بسیار بیشتر و حکمرانی نهایی و آشکار” در مورد چگونگی توسعه این ابزارها خواهد بود. بنابراین، امید اصلی هاو در توانایی جمعی بشریت برای آگاه شدن، مشارکت فعال و شکل‌دهی به آینده هوش مصنوعی از طریق یک فرآیند دموکراتیک و باز است.

H3: بزرگترین ترس: فرسایش دموکراسی و از دست دادن عاملیت فردی

در مقابل امیدها، هاو بزرگترین ترس خود را در فرسایش دموکراسی و از دست دادن عاملیت فردی می‌بیند. او در ابتدا هنگام نوشتن کتابش، بیشتر بر “آسیب‌های عمودی” (vertical harms) مانند استثمار نیروی کار و آسیب‌های زیست‌محیطی تمرکز داشت و قصد داشت “زنجیره تأمین فناوری‌های دیجیتال را نشان دهد که دارای یک زنجیره تأمین فیزیکی هستند”. اما در طول تحقیقاتش، وقتی با کارگران استثمار شده یا افرادی که منابع محیطی‌شان استخراج شده بود صحبت می‌کرد، متوجه شد که آن‌ها “همان یک چیز را می‌گفتند: این حس از دست دادن کامل عاملیت بر توانایی تعیین سرنوشت خود”.

اینجاست که هاو دریافت “بزرگترین تهدید این امپراتوری‌ها، فرسایش دموکراسی است”. زیرا اگر “اکثریت مردم جهان شروع به احساس کنند که عاملیتی برای تعیین سرنوشت خود ندارند، دموکراسی دیگر کار نمی‌کند”. او توضیح می‌دهد که “دموکراسی بر این ایده استوار است که همه ما حق داریم، همه ما صدا داریم، همه ما سزاواریم که به صندوق رأی برویم و بگوییم و احساس کنیم که در شکل‌دهی به آینده جمعی نقش داریم”.

هاو ابراز نگرانی می‌کند که در محیط سیاسی کنونی، “بیشتر و بیشتر مردم می‌گویند که ‘حتی فکر نمی‌کنم رأی من مهم باشد’، ‘حتی نمی‌دانم دیگر چه کاری می‌توانم انجام دهم’، ‘فقط باید تسلیم شوم و رها کنم'”. او هشدار می‌دهد که “این زمانی است که دموکراسی می‌میرد، زمانی که مردم اینگونه تسلیم می‌شوند”.

کتاب هاو، با همین امید نگاشته شده است: “که می‌تواند سکویی برای انگیزه دادن به مردم باشد تا تشخیص دهند که در واقع تسلیم نشوید، زیرا تمام این مواد اولیه‌ای که برای هوش مصنوعی استفاده می‌شوند، تمام این فضاهایی که هوش مصنوعی در آن‌ها مستقر می‌شود، به صورت جمعی متعلق به همه هستند و اگر ما فقط به یاد داشته باشیم که مالکیت خود را بر آن‌ها تأیید کنیم، قادر خواهیم بود مسیر توسعه هوش مصنوعی را شکل دهیم و تغییر دهیم”. بنابراین، بزرگترین ترس هاو از دست رفتن جوهر دموکراسی است، اما در عین حال، بزرگترین امید او نیز در قدرت نهفته در عاملیت جمعی شهروندان برای مقابله با این تهدید است.

نتیجه‌گیری

پیدایش و گسترش “امپراتوری‌های هوش مصنوعی” چالش‌های عمیق و چندوجهی را برای جامعه جهانی به ارمغان آورده است. همانطور که کارن هاو به شکلی روشنگرانه توضیح می‌دهد، شرکت‌هایی مانند OpenAI، با وجود مأموریت‌های والا و آرمان‌گرایانه ابتدایی، در مسیر توسعه خود ویژگی‌هایی از امپراتوری‌های کهن را به نمایش گذاشته‌اند: از ادعای مالکیت بر منابع عمومی (داده‌ها) و استثمار نیروی کار در زنجیره تأمین و خودکارسازی مشاغل، تا انحصار تولید دانش و ساخت روایت‌هایی برای توجیه قدرت خود. بحران‌های داخلی مانند برکناری سم آلتمن، نه تنها شکاف‌های ایدئولوژیک و مدیریتی را آشکار ساخت، بلکه نشان داد که چگونه نیروهای اقتصادی می‌توانند بر اصول حکمرانی سایه افکنند.

رویکرد “مقیاس به هر قیمت” در سیلیکون ولی، در حالی که سرعت نوآوری را تسریع می‌کند، هزینه‌های زیست‌محیطی سنگینی را در قالب مصرف بی‌رویه انرژی و آلودگی به همراه دارد. علاوه بر این، روایت‌های نادرست در مورد رقابت ژئوپلیتیکی، به ویژه با چین، منجر به توسعه فناوری‌های اقتدارگراتر شده و بنیان‌های دموکراسی را تضعیف می‌کند. در چنین چشم‌اندازی، بزرگترین ترس هاو، فرسایش عاملیت فردی و دموکراسی است، جایی که مردم احساس می‌کنند دیگر توانایی شکل‌دهی به آینده خود را ندارند.

با این حال، راه‌حل‌ها و امیدهایی نیز وجود دارد. هاو بر لزوم توسعه “مشارکتی” هوش مصنوعی تأکید می‌کند، جایی که جامعه، فعالان، و نهادهای مستقل، مالکیت جمعی خود را بر منابع و فرآیندهای توسعه این فناوری ابراز کنند. او شفافیت از طریق رویکرد “منبع باز” و مقابله با توهم هوش انسانی را برای ارزیابی دقیق‌تر و مسئولانه‌تر هوش مصنوعی حیاتی می‌داند. تأمین مالی تحقیقات مستقل خارج از شرکت‌های بزرگ و تشویق استارتاپ‌ها به نوآوری در حوزه‌های تخصصی به جای رقابت صرف بر سر مقیاس، نیز از راهکارهای کلیدی است.

بزرگترین امید، در افزایش آگاهی و گفت‌وگوی عمومی گسترده در مورد هوش مصنوعی نهفته است. اگر افراد در سراسر جهان نقش فعال خود را در شکل‌دهی به این فناوری به رسمیت بشناسند و به عنوان “مالکان جمعی” منابع آن عمل کنند، می‌توان مسیر توسعه هوش مصنوعی را به سمت نسخه‌ای “بسیار سودمندتر” برای تمام بشریت تغییر داد. این امر مستلزم آن است که “همه” درگیر شوند و حکمرانی هوش مصنوعی به یک بحث عمومی و شفاف تبدیل شود، نه اینکه صرفاً در دست یک گروه کوچک از نخبگان فناوری باشد. آینده هوش مصنوعی، و به تبع آن آینده جامعه بشری، به میزان مشارکت و آگاهی جمعی ما در مواجهه با چالش‌های “امپراتوری‌های هوش مصنوعی” بستگی دارد.

 

 

بدون نظر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *