تهدیدهای هوش مصنوعی امروز محدود به خطاهای الگوریتمی یا اشکالات فنی نیستند؛ وقتی سازوکارهای یادگیری ماشین در اختیار دستگاههای حکومتی و شرکتهای متمرکز قرار میگیرند، تواناییِ پیشبینی، مدیریت و جهتدهی رفتار جمعی به سرعت از یک ابزارِ فناورانه به ابزاری سیاسی تبدیل میشود. این تحول، از نحوه جمعآوری و مالکیت داده تا مکانیزمهای نظارت و اعمال سیاست، پرسشهای بنیادینی دربارهٔ آزادی فردی، شفافیت و توازن قوای اجتماعی مطرح میسازد.
در این مقاله با تکیه بر شواهد و سازوکارهای عملی، ابتدا راههایی را نشان میدهیم که از طریق آنها تهدیدهای سیاسی و نهادیِ هوش مصنوعی بروز میکنند، سپس سناریوهای ملموس و نمونههای واقعی را بررسی کرده و در نهایت راهکارهای مقرراتی، فناوری و مدنیِ قابل اجرا برای کاهش ریسک و حفاظت از حقوق فردی را پیش مینشانیم. اگر میخواهید بفهمید کدام خطرها واقعاً فوریاند و چه گامهایی میتوان برای حفظ دسترسی باز، شفافیت و تمرکززدایی برداشت، ادامهٔ متن جوابهایی روشن و کاربردی به شما میدهد.
با هامیا ژورنال همراه باشید.
فهرست مطالب
در سالیان اخیر، چهرههای برجستهای در عرصه هوش مصنوعی، از ایلان ماسک (Elon Musk) و یوشوا بنجیو (Yoshua Bengio) گرفته تا جفری هینتون (Geoffrey Hinton) و یان ل کان (Yann LeCun)، هشدارهای فراوانی در باب خطرات بالقوه این فناوری ابراز داشتهاند. با این حال، شاید اینها مرجع شایستهای برای استماع آراء در این باب نباشند؛ زیرا ماهیت تهدیدهای هوش مصنوعی، اساساً سیاسی است. غالب دانشمندان و متخصصان فنی، علیرغم هوشمندی بسیار، در زمینه علوم سیاسی آموزش ندیدهاند و عموماً فاقد بینش لازم برای تفکر در باب مسائل سیاسی هستند، مگر آنجا که پای تأثیرات نظارتی بر حوزه تخصصی خودشان در میان باشد. از هیچ مخترعی انتظار نمیرود که خود به تنهایی قادر به درک تمام پیامدهای سیاسی و اجتماعی اختراع خویش باشد.
غفلت از تهدید اصلی: نقطه کور کارشناسان هوش مصنوعی
همین امر تبیین میکند که چرا دیدگاههای کارشناسان هوش مصنوعی درباره مخاطرات این فناوری، اغلب سادهانگارانه و به دور از ژرفبینی به نظر میرسد. عباراتی نظیر “باید شرکتها را به توقف توسعه هوش مصنوعی ترغیب کنیم”، “دولت باید قطعاً مداخله کند“، “انسانها میتوانند با هوش مصنوعی به دیگران آسیب بزنند”، “نباید اجازه داد هوش مصنوعی به دست افراد نادرست بیفتد” و اینکه “بازیگران شرور” میتوانند از آن سوءاستفاده کنند، همگی نمونههایی از این نگرش سطحی هستند. در این میان، گاه خطرات بالقوه هوش مصنوعی کماهمیت جلوه داده میشود و گاه در آن اغراق میگردد. وجه مشترک تمامی این ارزیابیها آن است که هرگز به “بازیگر شروری” که بدترین سابقه را در تاریخ دارد، یعنی دولت، اشارهای نمیکنند.
این غفلت، به وضوح یک نقطه کور تحلیلی است. در نگاه این دانشمندان، تمایز بنیادینی میان دولت و جامعه وجود ندارد و همواره یک “ما”ی جمعی مفروض است که باید تهدیدهای بالقوه هوش مصنوعی را مدیریت کند. این دقیقاً همان مغالطهای است که موری روتبارد (Murray Rothbard) در کتاب «کالبدشناسی دولت» (۱۹۷۴) به روشنی نسبت به آن هشدار میدهد.
«با ظهور دموکراسی، همسانانگاری دولت و جامعه تشدید شده است… عبارت جمعی و سودمند “ما” به مثابه یک استتار ایدئولوژیک عمل کرده تا واقعیت حیات سیاسی را پنهان سازد.»
موری روتبارد در کتاب «کالبدشناسی دولت» (۱۹۷۴)
اگرچه در عصر حاضر که مداخلهگرایی دولتی و سرمایهداری رفاقتی فراگیر شده، تمایز نهادن میان دولت و جامعه دشوار مینماید، اما این تفکیک امری ضروری است. دولت، بنا بر تعریف معیار وبری (Max Weber)، «اجتماعی انسانی است که انحصار کاربرد مشروع زور فیزیکی را در قلمرویی معین، با موفقیت به دست میآورد.» بنابراین، دولت ذاتاً پدیدهای است کاملاً متمایز از سایر اجزای جامعه. همانطور که لودویگ فون میزس (Ludwig Von Mises) در کتاب «آزادی و مالکیت» هشدار میدهد: «دولت در اساس، نفی آزادی است.» به بیان دیگر، با گسترش اجبار دولتی، آزادی تضییع میگردد. هرچند قدرت شرکتهای رفاقتی میتواند دولت را تحت تأثیر قرار دهد تا از مزایای ویژهای برخوردار شوند، اما تردیدی نیست که زمام نهایی امور در دست کیست. زمان آن فرارسیده است که اسطوره «دولت خیرخواه» را به کناری نهیم.
با این دیدگاه، در مواجهه با هر فناوری نوینی، نخست باید پرسید که دولت تا چه میزان آن فناوری و روند توسعهاش را در اختیار دارد. در این زمینه، کارنامه هوش مصنوعی چندان قابل دفاع نیست؛ زیرا اغلب بازیگران اصلی این عرصه (همچون گوگل، مایکروسافت، شرکت OpenAI، متا و Anthropic)، به همراه بنیانگذاران و فناوریهای بنیادینشان، از همان آغاز به انحاء گوناگون مورد پشتیبانی مالی، کمکهای پژوهشی و زیرساختهای دولت ایالات متحده بودهاند. سازمان پروژههای تحقیقاتی پیشرفته دفاعی ایالات متحده (دارپا) و بنیاد ملی علوم آمریکا، بودجه تحقیقات اولیهای را تأمین کردند که ظهور شبکههای عصبی مصنوعی (یعنی فناوری محوری تمام آزمایشگاههای بزرگ هوش مصنوعی امروز) را امکانپذیر ساخت.
این سیر تحول به هیچ روی غافلگیرکننده نیست، زیرا دولت طبیعتاً میکوشد تا از تمام ابزارهای ممکن برای حفظ و بسط قدرت خویش بهره جوید. به بیان روتبارد: «آنچه دولت بیش از هر چیز از آن هراس دارد، هرگونه تهدید بنیادین علیه قدرت و موجودیت خویش است.» بنابراین، تهدیدهای هوش مصنوعی را باید در یک چارچوب دوگانه تحلیل کرد. از یک سو، دولت میتواند فعالانه از هوش مصنوعی برای افزایش سلطه و کنترل خود بر جامعه بهرهبرداری کند و از سوی دیگر، هوش مصنوعی میتواند با توانمندسازی اقتصادی و سیاسی جامعه، خود به چالشی برای اقتدار دولت بدل گردد.
هوش مصنوعی و موازنه قوای متزلزل میان دولت و جامعه
از این رو، تهدید حقیقی هوش مصنوعی را باید از منظر تأثیر بالقوه آن بر موازنه متزلزل قوا میان دولت و جامعه سنجید. به بیانی جامعهشناختیتر، این تهدید بر رابطه میان اقلیت حاکم و اکثریت تحت سلطه اثر میگذارد؛ رابطهای که سرنوشت آن همواره به این بستگی داشته است که کدام یک از طرفین از ابزارهای نوین قدرت، همچون صنعت چاپ، بانکداری مدرن، تلویزیون، اینترنت، رسانههای اجتماعی و اکنون هوش مصنوعی، بهره بیشتری میبرد. در مواردی، دولت از این ابزارها برای تحکیم سیطره خویش سود جسته، حال آنکه برخی دیگر از این فناوریها ممکن است به توانمندسازی جامعه یاری رسانده باشند. برای مثال، تلویزیون ابزاری بود که جایگاه اقلیت حاکم را تقویت کرد، در حالی که رسانههای اجتماعی اکنون نفوذ سیاسی اکثریت را به زیان آن اقلیت افزایش میدهند. بنابراین، همین پرسش بنیادین در مورد هوش مصنوعی نیز مطرح است: آیا این فناوری بر اقتدار دولت به زیان جامعه خواهد افزود، یا بالعکس؟
همانگونه که پیشتر اشاره شد، دولت از مدتها پیش، حتی در مراحل نظری و تکوین اولیه، در فناوری هوش مصنوعی مداخله کرده است. امروزه، شرکت پالانتیر (Palantir Technologies) که به پیتر تیل (Peter Thiel)، مدعی آزادیخواهی، تعلق دارد، نرمافزارهای تحلیل مبتنی بر هوش مصنوعی را در اختیار سازمانهای دولتی آمریکا قرار میدهد تا با ایجاد یک پایگاه داده متمرکز و ملی از شهروندان (که امکان کابوسوار «پلیس پیشبینیگر» را نیز فراهم میآورد)، قدرت نظارت و کنترل خود بر جمعیت را افزایش دهند. به همین ترتیب، شرکت انتروپیک با پالانتیر و خدمات وب آمازون همکاری میکند تا دسترسی سازمانهای اطلاعاتی و دفاعی آمریکا به مدلهای هوش مصنوعی خود را میسر سازد و شرکت متا نیز مدلهای هوش مصنوعی مولد خود را در اختیار دولت آمریکا خواهد گذاشت. هرچند چنین اقداماتی ممکن است در تئوری، بر کارآمدی بروکراسی دولتی بیفزایند، اما این امر در عمل تنها تهدید علیه آزادیهای فردی را تشدید میکند. نگرانکنندهتر آنکه این تحولات «عادی» تلقی شده و با هیچگونه ابراز نگرانی از سوی روزنامهنگاران و کارشناسان این صنعت مواجه نمیشوند.
از منظر جامعه، هوش مصنوعی در نهایت به تحولات بنیادین در بنگاههای اقتصادی و افزایش بهرهوری، به میزانی بسیار فراتر از انقلاب اطلاعاتی اینترنت، منجر خواهد شد. پیامدهای سیاسی این امر میتواند چشمگیر باشد، زیرا هوش مصنوعی قادر است به هر فرد یک دستیار پژوهشی شخصی اعطا کند و دسترسی به دانش را حتی در حوزههایی که تحت سیطره «دروازهبانان دانش (Knowledge gatekeepers)» قرار دارند، تسهیل نماید. کارهای تکراری میتوانند به هوش مصنوعی واگذار شوند و زمان افراد را برای امور ارزشمندتر، از جمله مشارکت سیاسی، آزاد کنند. به عنوان مثال، هوش مصنوعی میتواند فهم و بررسی فعالیتهای دولت را از طریق خلاصهسازی قوانین به زبانی ساده، تحلیل دادههای بودجه و هزینهها و راستیآزمایی آنیِ ادعاها آسانتر سازد و از این طریق، شکاف دانش میان دولتها و شهروندان را کاهش دهد.
البته این توانمندسازی فزاینده سیاسی جامعه میتواند از طریق محدودسازی دسترسی به هوش مصنوعی خنثی گردد. اگر دولت در عرصه هوش مصنوعی از موضع قدرت برخوردار باشد، قادر خواهد بود تا با نظارت، دستکاری اطلاعات یا اقداماتی بدتر، مخالفان و روزنامهنگاران مستقلی را که از این فناوری بهره میبرند، تضعیف و از اعتبار ساقط کند؛ بهویژه در شرایطی که دولت خود را ملزم به رعایت قیود قانونی نداند. متأسفانه این وضعیت نه فقط در آمریکا، بلکه در غالب دولتها و سازمانهای بین المللی نیز حاکم است.
آینده هوش مصنوعی، شامل هوش مصنوعی عمومی (AGI)، هوش مصنوعی عاملیتمحور و هوش مصنوعی بدنمند، تنها بر اهمیت این مبحث در باب تهدیدات خواهد افزود. این تحولات، امکان نقض حقوق شهروندان توسط دولت را افزایش میدهند، اما همزمان، فرصتها و اقدامات متقابل ممکن در سطح فردی و اجتماعی را نیز فزونی میبخشند. سرنوشت بسیاری از مسائل میتواند به این وابسته باشد که آیا کارکردهای متعدد هوش مصنوعی در آینده، عمدتاً باز، غیرمتمرکز و رمزنگاریشده خواهند بود یا خیر. این آینده هنوز نامعلوم است، اما چارچوب سیاسیای که در اینجا ارائه شد، کماکان اعتبار بنیادین خود را حفظ خواهد کرد.
خطرات سیاسی مرتبط با هوش مصنوعی، بسی فراتر از آن است که به نظر میرسد دانشمندان دادهی توسعهدهنده این فناوری درک میکنند. تهدیدات هوش مصنوعی در راستای همان تهدیداتی قرار میگیرند که تمام فناوریهای نوین، در صورت استفاده مخرب توسط دولت، به همراه میآورند. از این رو، بر عموم مردم واجب است که نه تنها درباره هوش مصنوعی بیاموزند و قابلیتهای آن را پذیرا باشند، بلکه آن را در بستر فراگیرترِ مبارزه سیاسی برای آزادی نیز بازشناسند.
سخن پایانی
تهدیدهای هوش مصنوعی بیش از یک چالش فنیاند: آنها بنیادهای سیاسی و اجتماعی را نشانه میگیرند. هنگامی که الگوریتمها و دادهها در اختیار دولتها قرار میگیرند، تمرکز قدرت، نظارت گسترده و ضعف در شفافیت و مسئولیتپذیری عملاً بسترِ ظهورِ کنترل و جهتدهی رفتار جمعی را فراهم میکنند؛ پیامدهایی که آزادی فردی، شفافیت نهادها و سلامت بازارهای نوآوری را تهدید میکند. این مقاله با تشریح سازوکارها و ارائه نمونههای عینی نشان داد که کدام خطرها فوریاند و چرا پاسخهای تکبعدی (فقط فنی یا صرفاً سیاسی) برای مقابله با این تهدیدها کافی نیستند.
راهحل مؤثر، ترکیبی از نوآوری فنی و کنش مدنی است: قانونگذاری مبتنی بر حقوق و شفافیت، حفظ مالکیت و اختیار فردی بر دادهها، تمرکززدایی و دسترسی باز به پژوهش و پیادهسازی ابزارهای رمزنگاریشده و کنترلهای دسترسی. اجرای این ترکیب نه تنها ریسکها را کاهش میدهد، بلکه امکانِ استفادهٔ مسئولانه و آزادانه از هوش مصنوعی را برای جامعه فراهم میآورد؛ الگویی که قدرت فردی، پاسخگویی نهادها و آزادیِ نوآوری را در مرکز قرار میدهد. برای تصمیمگیران، محققان و شهروندانی که آیندهای پایدار و آزادتر میخواهند، این متن چارچوبی عملی و جهتدار برای عمل ارائه میکند.
اگر محتوای ما برایتان جذاب بود و چیزی از آن آموختید، لطفاً لحظهای وقت بگذارید و این چند خط را بخوانید:
ما گروهی کوچک و مستقل از دوستداران علم و فناوری هستیم که تنها با حمایتهای شما میتوانیم به راه خود ادامه دهیم. اگر محتوای ما را مفید یافتید و مایلید از ما حمایت کنید، سادهترین و مستقیمترین راه، کمک مالی از طریق لینک دونیت در پایین صفحه است.
اما اگر به هر دلیلی امکان حمایت مالی ندارید، همراهی شما به شکلهای دیگر هم برای ما ارزشمند است. با معرفی ما به دوستانتان، لایک، کامنت یا هر نوع تعامل دیگر، میتوانید در این مسیر کنار ما باشید و یاریمان کنید. ❤️






