فلسفه تکنولوژیهوش مصنوعی

درس‌هایی که تاریخ به ما درباره ترس از هوش مصنوعی می‌آموزد!

اعمال مقررات (Regulating) بر هوش مصنوعی، آزادی بیان را تهدید/تحدید می‌کند؛ بررسی تاریخچه تنظیم مقررات بر رسانه‌های مختلف، ما را به این نتیجه می‌رساند. خوش بُوَد گر مِحَکِ تجربه آید به میان! همان‌گونه که در گذشته شاهد بوده‌ایم، تلاش برای کنترل محتوا و جریان آزاد اطلاعات، منجر به محدود شدن آزادی بیان شده‌است.

با اعلام مجمع جهانی اقتصاد (World Economic Forum) مبنی بر اینکه هوش مصنوعی بزرگترین خطر کوتاه‌مدت در سال ۲۰۲۴ است، دغدغه‌های عمومی در خصوص تأثیرات این فناوری بر انتشار اطلاعات نادرست و گمراه‌کننده به شدت افزایش یافته‌است. با این حال، این نگرانی‌ها چندان تازگی ندارند. در طول تاریخ، هرگاه فناوری جدیدی ظهور کرده که پتانسیل دستکاری در اطلاعات را داشته‌است، نگرانی‌های مشابهی نیز ابراز شده‌است.

برای مثال درگیر و دار انتخابات آمریکا سیاستمداران و رسانه‌ها به شدت نگران آن هستند که هوش مصنوعی بتواند با تولید اطلاعات نادرست و گمراه‌کننده، بر نتایج انتخابات تأثیر بگذارد. اما تجربه تاریخی نشان می‌دهد که اغلب اوقات، نگرانی‌ها در مورد فناوری‌های نوین اغراق‌آمیز بوده و تهدیدات واقعی کمتر از آنچه تصور می‌شود هستند. به عبارت دیگر، هنگامی که مردم از یک فناوری جدید می‌ترسند و معتقدند که این فناوری تشخیص حقایق را از اطلاعات نادرست دشوار می‌کند، اغلب این ترس‌ها بی‌مورد بوده و تهدیدات واقعی بسیار کمتر از آنچه تصور می‌شود هستند.

نگرانی‌ها پیرامون دستکاری اطلاعات توسط هوش مصنوعی در حوزه سیاست، پدیده‌ای نوظهور نیست. همان‌گونه که جفری وستلینگ (Jeffrey Westling) از انجمن اقدام آمریکا (American Action Forum) در سال ۲۰۲۰ اشاره کرده‌است، تاریخچه بشری مملو از نمونه‌های فریبکاری و دستکاری اطلاعات است. از جعل رویدادهای تاریخی تا شبیه‌سازی دقیق چهره افراد، انسان همواره به دنبال راه‌هایی برای فریب دیگران بوده‌است.

در اوایل قرن بیستم نیز، با ظهور تکنیک‌های ویرایش تصویر، نگرانی‌هایی در خصوص انتشار اطلاعات نادرست و گمراه‌کننده از طریق تصاویر جعلی مطرح شد. در آن زمان، برخی خواستار ممنوعیت این فناوری‌ها شدند؛ اما خوشبختانه، چنین اقدامی صورت نگرفت. تجربه تاریخی نشان می‌دهد که ممنوعیت فناوری‌های نوین، نه تنها مانع از سوءاستفاده از آن‌ها نمی‌شود، بلکه می‌تواند به نوآوری و پیشرفت در سایر حوزه‌ها نیز آسیب برساند.

اگرچه دستکاری اطلاعات توسط هوش مصنوعی ممکن است عواقب منفی داشته باشد، اما تنظیم و اعمال مقررات بر این فناوری قطعا به آزادی بیان آسیب جدی وارد می‌کند. تعاریف مبهم و کلی در خصوص هوش مصنوعی و محتوای ممنوعه، می‌تواند ابزارهای گفتگو و نقد سیاسی را به خطر اندازد. برای مثال، ممنوعیت استفاده از هوش مصنوعی در تولید محتواهای طنز و انتقادی، می‌تواند به محدود شدن آزادی بیان منجر شود.

مقررات سختگیرانه و فراگیر در حوزه هوش مصنوعی می‌تواند به طور جدی آزادی بیان را تهدید کند. اشکال مختلف بیان نظرات سیاسی، از جمله طنز و پارودی، که از دیرباز به عنوان ابزاری برای نقد و بررسی مسائل سیاسی مورد استفاده قرار می‌گرفته‌اند، ممکن است در سایه این مقررات محدود یا ممنوع شوند. علاوه بر این، اعمال محدودیت بر استفاده از هوش مصنوعی در فرایندهای انتخاباتی می‌تواند مانع از ارائه اطلاعات صحیح و شفاف درباره نامزدها و سیاست‌های آن‌ها شود.

برچسب‌گذاری اجباری محتواهای تولید شده توسط هوش مصنوعی، که اغلب به عنوان جایگزینی برای ممنوعیت کامل این فناوری‌ها مطرح می‌شود، می‌تواند پیامدهای ناخواسته‌ای داشته باشد. در حالی که هدف از این اقدام، افزایش آگاهی کاربران و جلوگیری از انتشار اطلاعات نادرست است، اما در عمل ممکن است به نتایج متفاوتی منجر شود. برای مثال، اگر دولت به صورت اجباری تمامی محتواهایی را که به نحوی از هوش مصنوعی استفاده کرده‌اند، برچسب‌گذاری کند، حتی محتواهای بی‌ضرر و خنثی نیز ممکن است تحت این برچسب قرار گیرند. این امر می‌تواند به بی‌اعتمادی گسترده در میان کاربران منجر شود و به طور کلی بر کیفیت اطلاعات در فضای مجازی تأثیر منفی بگذارد.

تجربه گذشته نشان داده‌است که اگرچه تلاش‌ها برای انتشار اطلاعات نادرست و گمراه‌کننده پیچیده‌تر شده‌اند، اما جامعه به تدریج توانایی خود را برای تشخیص این اطلاعات افزایش داده‌است. با افزایش آگاهی عمومی در مورد تکنیک‌های دستکاری اطلاعات و توسعه ابزارهای تشخیص تقلب، مخاطبان قادر خواهند بود به صورت انتقادی به اطلاعات ارائه شده نگاه کنند و از اعتبار آن‌ها اطمینان حاصل نمایند.

شاهدیم که جامعه به سرعت به اطلاعات نادرست تولید شده توسط هوش مصنوعی واکنش نشان می‌دهد. دو نمونه اخیر به خوبی این موضوع را نشان می‌دهند. در مورد اول، یک تماس تلفنی رباتیک که ادعایی خلاف واقع را مطرح کرده بود، به سرعت افشا و فرد متخلف شناسایی شد. در مورد دوم نیز، تصویری دستکاری شده از یک چهره مشهور به سرعت توسط رسانه‌ها منتشر شد و به عنوان یک نمونه از سوءاستفاده از هوش مصنوعی محکوم شد. این موارد نشان می‌دهند که جامعه به تدریج در حال یادگیری نحوه تشخیص و مقابله با این نوع اطلاعات نادرست است.

بازار نیز به نگرانی‌های کاربران در خصوص اطلاعات نادرست تولید شده توسط هوش مصنوعی پاسخ مثبت داده‌است. پلتفرم‌های مختلف در حال ایجاد مکانیزم‌هایی هستند که به کاربران اجازه می‌دهند تا به صورت خلاقانه از ابزارهای تکنولوژیکی استفاده کنند، بدون اینکه به حقوق دیگران یا انتشار اطلاعات نادرست کمک کنند. همچنین، این پلتفرم‌ها در حال توسعه ابزارهایی هستند که به کاربران کمک می‌کنند تا محتواهای مشکوک را شناسایی و گزارش کنند. این اقدامات نشان می‌دهد که بازار به سمت ایجاد محیطی امن‌تر و قابل اعتماد‌تر حرکت می‌کند.

علاوه بر تلاش‌های صورت گرفته توسط دولت‌ها و رسانه‌های معتبر برای آگاه‌سازی عموم از خطرات ناشی از اطلاعات نادرست، شاهد آن هستیم که جامعه نیز در حال یادگیری و توسعه مهارت‌های لازم برای تشخیص این اطلاعات است. با انتشار اطلاعاتی در مورد شیوه‌های دستکاری اطلاعات و انگیزه‌های افراد و گروه‌های پشت این اقدامات، عموم مردم قادر خواهند بود به صورت آگاهانه به محتواهای منتشر شده در فضای مجازی واکنش نشان دهند. در این راستا، به جای تمرکز صرف بر وضع قوانین و مقررات محدودکننده، سرمایه‌گذاری بر آموزش و ارتقای سواد رسانه‌ای شهروندان، رویکردی موثرتر و کارآمدتر خواهد بود.

در آستانه رویدادهای مهمی مانند انتخابات، معمولاً نگرانی‌های جدیدی در خصوص استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست مطرح می‌شود. با این حال، تجربه نشان داده‌است که توسعه هنجارهای اجتماعی و اخلاقی در استفاده از فناوری، راهکاری موثرتر از وضع قوانین سختگیرانه است. به عبارت دیگر، به جای آنکه صرفاً به دنبال محدود کردن فناوری باشیم، باید به دنبال ایجاد فرهنگ و ارزش‌هایی باشیم که استفاده مسئولانه از فناوری را ترویج کند.

امتیاز دهید!
1 / 5

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا