فلسفه تکنولوژیهوش مصنوعی

هوش مصنوعی، موازنه قوا و آینده آزادی: سناریوها و راه‌حل‌ها

تهدیدهای هوش مصنوعی امروز محدود به خطاهای الگوریتمی یا اشکالات فنی نیستند؛ وقتی سازوکارهای یادگیری ماشین در اختیار دستگاه‌های حکومتی و شرکت‌های متمرکز قرار می‌گیرند، تواناییِ پیش‌بینی، مدیریت و جهت‌دهی رفتار جمعی به سرعت از یک ابزارِ فناورانه به ابزاری سیاسی تبدیل می‌شود. این تحول، از نحوه جمع‌آوری و مالکیت داده تا مکانیزم‌های نظارت و اعمال سیاست، پرسش‌های بنیادینی دربارهٔ آزادی فردی، شفافیت و توازن قوای اجتماعی مطرح می‌سازد.

در این مقاله با تکیه بر شواهد و سازوکارهای عملی، ابتدا راه‌هایی را نشان می‌دهیم که از طریق آنها تهدیدهای سیاسی و نهادیِ هوش مصنوعی بروز می‌کنند، سپس سناریوهای ملموس و نمونه‌های واقعی را بررسی کرده و در نهایت راهکارهای مقرراتی، فناوری و مدنیِ قابل اجرا برای کاهش ریسک و حفاظت از حقوق فردی را پیش می‌نشانیم. اگر می‌خواهید بفهمید کدام خطرها واقعاً فوری‌اند و چه گام‌هایی می‌توان برای حفظ دسترسی باز، شفافیت و تمرکززدایی برداشت، ادامهٔ متن جواب‌هایی روشن و کاربردی به شما می‌دهد.

با هامیا ژورنال همراه باشید.

در سالیان اخیر، چهره‌های برجسته‌ای در عرصه هوش مصنوعی، از ایلان ماسک (Elon Musk) و یوشوا بنجیو (Yoshua Bengio) گرفته تا جفری هینتون (Geoffrey Hinton) و یان ل کان (Yann LeCun)، هشدارهای فراوانی در باب خطرات بالقوه این فناوری ابراز داشته‌اند. با این حال، شاید این‌ها مرجع شایسته‌ای برای استماع آراء در این باب نباشند؛ زیرا ماهیت تهدیدهای هوش مصنوعی، اساساً سیاسی است. غالب دانشمندان و متخصصان فنی، علی‌رغم هوشمندی بسیار، در زمینه علوم سیاسی آموزش ندیده‌اند و عموماً فاقد بینش لازم برای تفکر در باب مسائل سیاسی هستند، مگر آنجا که پای تأثیرات نظارتی بر حوزه تخصصی خودشان در میان باشد. از هیچ مخترعی انتظار نمی‌رود که خود به تنهایی قادر به درک تمام پیامدهای سیاسی و اجتماعی اختراع خویش باشد.

غفلت از تهدید اصلی: نقطه کور کارشناسان هوش مصنوعی

همین امر تبیین می‌کند که چرا دیدگاه‌های کارشناسان هوش مصنوعی درباره مخاطرات این فناوری، اغلب ساده‌انگارانه و به دور از ژرف‌بینی به نظر می‌رسد. عباراتی نظیر “باید شرکت‌ها را به توقف توسعه هوش مصنوعی ترغیب کنیم”، “دولت باید قطعاً مداخله کند“، “انسان‌ها می‌توانند با هوش مصنوعی به دیگران آسیب بزنند”، “نباید اجازه داد هوش مصنوعی به دست افراد نادرست بیفتد” و اینکه “بازیگران شرور” می‌توانند از آن سوءاستفاده کنند، همگی نمونه‌هایی از این نگرش سطحی هستند. در این میان، گاه خطرات بالقوه هوش مصنوعی کم‌اهمیت جلوه داده می‌شود و گاه در آن اغراق می‌گردد. وجه مشترک تمامی این ارزیابی‌ها آن است که هرگز به “بازیگر شروری” که بدترین سابقه را در تاریخ دارد، یعنی دولت، اشاره‌ای نمی‌کنند.

این غفلت، به وضوح یک نقطه کور تحلیلی است. در نگاه این دانشمندان، تمایز بنیادینی میان دولت و جامعه وجود ندارد و همواره یک “ما”ی جمعی مفروض است که باید تهدیدهای بالقوه هوش مصنوعی را مدیریت کند. این دقیقاً همان مغالطه‌ای است که موری روتبارد (Murray Rothbard) در کتاب «کالبدشناسی دولت» (۱۹۷۴) به روشنی نسبت به آن هشدار می‌دهد.

«با ظهور دموکراسی، همسان‌انگاری دولت و جامعه تشدید شده است… عبارت جمعی و سودمند “ما” به مثابه یک استتار ایدئولوژیک عمل کرده تا واقعیت حیات سیاسی را پنهان سازد.»

موری روتبارد در کتاب «کالبدشناسی دولت» (۱۹۷۴)

اگرچه در عصر حاضر که مداخله‌گرایی دولتی و سرمایه‌داری رفاقتی فراگیر شده، تمایز نهادن میان دولت و جامعه دشوار می‌نماید، اما این تفکیک امری ضروری است. دولت، بنا بر تعریف معیار وبری (Max Weber)، «اجتماعی انسانی است که انحصار کاربرد مشروع زور فیزیکی را در قلمرویی معین، با موفقیت به دست می‌آورد.» بنابراین، دولت ذاتاً پدیده‌ای است کاملاً متمایز از سایر اجزای جامعه. همان‌طور که لودویگ فون میزس (Ludwig Von Mises) در کتاب «آزادی و مالکیت» هشدار می‌دهد: «دولت در اساس، نفی آزادی است.» به بیان دیگر، با گسترش اجبار دولتی، آزادی تضییع می‌گردد. هرچند قدرت شرکت‌های رفاقتی می‌تواند دولت را تحت تأثیر قرار دهد تا از مزایای ویژه‌ای برخوردار شوند، اما تردیدی نیست که زمام نهایی امور در دست کیست. زمان آن فرارسیده است که اسطوره «دولت خیرخواه» را به کناری نهیم.

با این دیدگاه، در مواجهه با هر فناوری نوینی، نخست باید پرسید که دولت تا چه میزان آن فناوری و روند توسعه‌اش را در اختیار دارد. در این زمینه، کارنامه هوش مصنوعی چندان قابل دفاع نیست؛ زیرا اغلب بازیگران اصلی این عرصه (همچون گوگل، مایکروسافت، شرکت OpenAI، متا و Anthropic)، به همراه بنیان‌گذاران و فناوری‌های بنیادینشان، از همان آغاز به انحاء گوناگون مورد پشتیبانی مالی، کمک‌های پژوهشی و زیرساخت‌های دولت ایالات متحده بوده‌اند. سازمان پروژه‌های تحقیقاتی پیشرفته دفاعی ایالات متحده (دارپا) و بنیاد ملی علوم آمریکا، بودجه تحقیقات اولیه‌ای را تأمین کردند که ظهور شبکه‌های عصبی مصنوعی (یعنی فناوری محوری تمام آزمایشگاه‌های بزرگ هوش مصنوعی امروز) را امکان‌پذیر ساخت.

این سیر تحول به هیچ روی غافلگیرکننده نیست، زیرا دولت طبیعتاً می‌کوشد تا از تمام ابزارهای ممکن برای حفظ و بسط قدرت خویش بهره جوید. به بیان روتبارد: «آنچه دولت بیش از هر چیز از آن هراس دارد، هرگونه تهدید بنیادین علیه قدرت و موجودیت خویش است.» بنابراین، تهدیدهای هوش مصنوعی را باید در یک چارچوب دوگانه تحلیل کرد. از یک سو، دولت می‌تواند فعالانه از هوش مصنوعی برای افزایش سلطه و کنترل خود بر جامعه بهره‌برداری کند و از سوی دیگر، هوش مصنوعی می‌تواند با توانمندسازی اقتصادی و سیاسی جامعه، خود به چالشی برای اقتدار دولت بدل گردد.

هوش مصنوعی و موازنه قوای متزلزل میان دولت و جامعه

از این رو، تهدید حقیقی هوش مصنوعی را باید از منظر تأثیر بالقوه آن بر موازنه متزلزل قوا میان دولت و جامعه سنجید. به بیانی جامعه‌شناختی‌تر، این تهدید بر رابطه میان اقلیت حاکم و اکثریت تحت سلطه اثر می‌گذارد؛ رابطه‌ای که سرنوشت آن همواره به این بستگی داشته است که کدام یک از طرفین از ابزارهای نوین قدرت، همچون صنعت چاپ، بانکداری مدرن، تلویزیون، اینترنت، رسانه‌های اجتماعی و اکنون هوش مصنوعی، بهره بیشتری می‌برد. در مواردی، دولت از این ابزارها برای تحکیم سیطره خویش سود جسته، حال آنکه برخی دیگر از این فناوری‌ها ممکن است به توانمندسازی جامعه یاری رسانده باشند. برای مثال، تلویزیون ابزاری بود که جایگاه اقلیت حاکم را تقویت کرد، در حالی که رسانه‌های اجتماعی اکنون نفوذ سیاسی اکثریت را به زیان آن اقلیت افزایش می‌دهند. بنابراین، همین پرسش بنیادین در مورد هوش مصنوعی نیز مطرح است: آیا این فناوری بر اقتدار دولت به زیان جامعه خواهد افزود، یا بالعکس؟

همان‌گونه که پیشتر اشاره شد، دولت از مدت‌ها پیش، حتی در مراحل نظری و تکوین اولیه، در فناوری هوش مصنوعی مداخله کرده است. امروزه، شرکت پالانتیر (Palantir Technologies) که به پیتر تیل (Peter Thiel)، مدعی آزادی‌خواهی، تعلق دارد، نرم‌افزارهای تحلیل مبتنی بر هوش مصنوعی را در اختیار سازمان‌های دولتی آمریکا قرار می‌دهد تا با ایجاد یک پایگاه داده متمرکز و ملی از شهروندان (که امکان کابوس‌وار «پلیس پیش‌بینی‌گر» را نیز فراهم می‌آورد)، قدرت نظارت و کنترل خود بر جمعیت را افزایش دهند. به همین ترتیب، شرکت انتروپیک با پالانتیر و خدمات وب آمازون همکاری می‌کند تا دسترسی سازمان‌های اطلاعاتی و دفاعی آمریکا به مدل‌های هوش مصنوعی خود را میسر سازد و شرکت متا نیز مدل‌های هوش مصنوعی مولد خود را در اختیار دولت آمریکا خواهد گذاشت. هرچند چنین اقداماتی ممکن است در تئوری، بر کارآمدی بروکراسی دولتی بیفزایند، اما این امر در عمل تنها تهدید علیه آزادی‌های فردی را تشدید می‌کند. نگران‌کننده‌تر آنکه این تحولات «عادی» تلقی شده و با هیچ‌گونه ابراز نگرانی از سوی روزنامه‌نگاران و کارشناسان این صنعت مواجه نمی‌شوند.

از منظر جامعه، هوش مصنوعی در نهایت به تحولات بنیادین در بنگاه‌های اقتصادی و افزایش بهره‌وری، به میزانی بسیار فراتر از انقلاب اطلاعاتی اینترنت، منجر خواهد شد. پیامدهای سیاسی این امر می‌تواند چشمگیر باشد، زیرا هوش مصنوعی قادر است به هر فرد یک دستیار پژوهشی شخصی اعطا کند و دسترسی به دانش را حتی در حوزه‌هایی که تحت سیطره «دروازه‌بانان دانش (Knowledge gatekeepers)» قرار دارند، تسهیل نماید. کارهای تکراری می‌توانند به هوش مصنوعی واگذار شوند و زمان افراد را برای امور ارزشمندتر، از جمله مشارکت سیاسی، آزاد کنند. به عنوان مثال، هوش مصنوعی می‌تواند فهم و بررسی فعالیت‌های دولت را از طریق خلاصه‌سازی قوانین به زبانی ساده، تحلیل داده‌های بودجه و هزینه‌ها و راستی‌آزمایی آنیِ ادعاها آسان‌تر سازد و از این طریق، شکاف دانش میان دولت‌ها و شهروندان را کاهش دهد.

البته این توانمندسازی فزاینده سیاسی جامعه می‌تواند از طریق محدودسازی دسترسی به هوش مصنوعی خنثی گردد. اگر دولت در عرصه هوش مصنوعی از موضع قدرت برخوردار باشد، قادر خواهد بود تا با نظارت، دستکاری اطلاعات یا اقداماتی بدتر، مخالفان و روزنامه‌نگاران مستقلی را که از این فناوری بهره می‌برند، تضعیف و از اعتبار ساقط کند؛ به‌ویژه در شرایطی که دولت خود را ملزم به رعایت قیود قانونی نداند. متأسفانه این وضعیت نه فقط در آمریکا، بلکه در غالب دولت‌ها و سازمان‌های بین المللی نیز حاکم است.

آینده هوش مصنوعی، شامل هوش مصنوعی عمومی (AGI)، هوش مصنوعی عاملیت‌محور و هوش مصنوعی بدن‌مند، تنها بر اهمیت این مبحث در باب تهدیدات خواهد افزود. این تحولات، امکان نقض حقوق شهروندان توسط دولت را افزایش می‌دهند، اما همزمان، فرصت‌ها و اقدامات متقابل ممکن در سطح فردی و اجتماعی را نیز فزونی می‌بخشند. سرنوشت بسیاری از مسائل می‌تواند به این وابسته باشد که آیا کارکردهای متعدد هوش مصنوعی در آینده، عمدتاً باز، غیرمتمرکز و رمزنگاری‌شده خواهند بود یا خیر. این آینده هنوز نامعلوم است، اما چارچوب سیاسی‌ای که در اینجا ارائه شد، کماکان اعتبار بنیادین خود را حفظ خواهد کرد.

خطرات سیاسی مرتبط با هوش مصنوعی، بسی فراتر از آن است که به نظر می‌رسد دانشمندان داده‌ی توسعه‌دهنده این فناوری درک می‌کنند. تهدیدات هوش مصنوعی در راستای همان تهدیداتی قرار می‌گیرند که تمام فناوری‌های نوین، در صورت استفاده مخرب توسط دولت، به همراه می‌آورند. از این رو، بر عموم مردم واجب است که نه تنها درباره هوش مصنوعی بیاموزند و قابلیت‌های آن را پذیرا باشند، بلکه آن را در بستر فراگیرترِ مبارزه سیاسی برای آزادی نیز بازشناسند.

سخن پایانی

تهدیدهای هوش مصنوعی بیش از یک چالش فنی‌اند: آن‌ها بنیادهای سیاسی و اجتماعی را نشانه می‌گیرند. هنگامی که الگوریتم‌ها و داده‌ها در اختیار دولت‌ها قرار می‌گیرند، تمرکز قدرت، نظارت گسترده و ضعف در شفافیت و مسئولیت‌پذیری عملاً بسترِ ظهورِ کنترل و جهت‌دهی رفتار جمعی را فراهم می‌کنند؛ پیامدهایی که آزادی فردی، شفافیت نهادها و سلامت بازارهای نوآوری را تهدید می‌کند. این مقاله با تشریح سازوکارها و ارائه نمونه‌های عینی نشان داد که کدام خطرها فوری‌اند و چرا پاسخ‌های تک‌بعدی (فقط فنی یا صرفاً سیاسی) برای مقابله با این تهدیدها کافی نیستند.

راه‌حل مؤثر، ترکیبی از نوآوری فنی و کنش مدنی است: قانون‌گذاری مبتنی بر حقوق و شفافیت، حفظ مالکیت و اختیار فردی بر داده‌ها، تمرکززدایی و دسترسی باز به پژوهش و پیاده‌سازی ابزارهای رمزنگاری‌شده و کنترل‌های دسترسی. اجرای این ترکیب نه تنها ریسک‌ها را کاهش می‌دهد، بلکه امکانِ استفادهٔ مسئولانه و آزادانه از هوش مصنوعی را برای جامعه فراهم می‌آورد؛ الگویی که قدرت فردی، پاسخ‌گویی نهادها و آزادیِ نوآوری را در مرکز قرار می‌دهد. برای تصمیم‌گیران، محققان و شهروندانی که آینده‌ای پایدار و آزادتر می‌خواهند، این متن چارچوبی عملی و جهت‌دار برای عمل ارائه می‌کند.

امتیاز دهید!
2 / 5

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا