اعمال مقررات (Regulating) بر هوش مصنوعی، آزادی بیان را تهدید/تحدید میکند؛ بررسی تاریخچه تنظیم مقررات بر رسانههای مختلف، ما را به این نتیجه میرساند. خوش بُوَد گر مِحَکِ تجربه آید به میان! همانگونه که در گذشته شاهد بودهایم، تلاش برای کنترل محتوا و جریان آزاد اطلاعات، منجر به محدود شدن آزادی بیان شدهاست.
با اعلام مجمع جهانی اقتصاد (World Economic Forum) مبنی بر اینکه هوش مصنوعی بزرگترین خطر کوتاهمدت در سال ۲۰۲۴ است، دغدغههای عمومی در خصوص تأثیرات این فناوری بر انتشار اطلاعات نادرست و گمراهکننده به شدت افزایش یافتهاست. با این حال، این نگرانیها چندان تازگی ندارند. در طول تاریخ، هرگاه فناوری جدیدی ظهور کرده که پتانسیل دستکاری در اطلاعات را داشتهاست، نگرانیهای مشابهی نیز ابراز شدهاست.
برای مثال درگیر و دار انتخابات آمریکا سیاستمداران و رسانهها به شدت نگران آن هستند که هوش مصنوعی بتواند با تولید اطلاعات نادرست و گمراهکننده، بر نتایج انتخابات تأثیر بگذارد. اما تجربه تاریخی نشان میدهد که اغلب اوقات، نگرانیها در مورد فناوریهای نوین اغراقآمیز بوده و تهدیدات واقعی کمتر از آنچه تصور میشود هستند. به عبارت دیگر، هنگامی که مردم از یک فناوری جدید میترسند و معتقدند که این فناوری تشخیص حقایق را از اطلاعات نادرست دشوار میکند، اغلب این ترسها بیمورد بوده و تهدیدات واقعی بسیار کمتر از آنچه تصور میشود هستند.
نگرانیها پیرامون دستکاری اطلاعات توسط هوش مصنوعی در حوزه سیاست، پدیدهای نوظهور نیست. همانگونه که جفری وستلینگ (Jeffrey Westling) از انجمن اقدام آمریکا (American Action Forum) در سال ۲۰۲۰ اشاره کردهاست، تاریخچه بشری مملو از نمونههای فریبکاری و دستکاری اطلاعات است. از جعل رویدادهای تاریخی تا شبیهسازی دقیق چهره افراد، انسان همواره به دنبال راههایی برای فریب دیگران بودهاست.
در اوایل قرن بیستم نیز، با ظهور تکنیکهای ویرایش تصویر، نگرانیهایی در خصوص انتشار اطلاعات نادرست و گمراهکننده از طریق تصاویر جعلی مطرح شد. در آن زمان، برخی خواستار ممنوعیت این فناوریها شدند؛ اما خوشبختانه، چنین اقدامی صورت نگرفت. تجربه تاریخی نشان میدهد که ممنوعیت فناوریهای نوین، نه تنها مانع از سوءاستفاده از آنها نمیشود، بلکه میتواند به نوآوری و پیشرفت در سایر حوزهها نیز آسیب برساند.
اگرچه دستکاری اطلاعات توسط هوش مصنوعی ممکن است عواقب منفی داشته باشد، اما تنظیم و اعمال مقررات بر این فناوری قطعا به آزادی بیان آسیب جدی وارد میکند. تعاریف مبهم و کلی در خصوص هوش مصنوعی و محتوای ممنوعه، میتواند ابزارهای گفتگو و نقد سیاسی را به خطر اندازد. برای مثال، ممنوعیت استفاده از هوش مصنوعی در تولید محتواهای طنز و انتقادی، میتواند به محدود شدن آزادی بیان منجر شود.
مقررات سختگیرانه و فراگیر در حوزه هوش مصنوعی میتواند به طور جدی آزادی بیان را تهدید کند. اشکال مختلف بیان نظرات سیاسی، از جمله طنز و پارودی، که از دیرباز به عنوان ابزاری برای نقد و بررسی مسائل سیاسی مورد استفاده قرار میگرفتهاند، ممکن است در سایه این مقررات محدود یا ممنوع شوند. علاوه بر این، اعمال محدودیت بر استفاده از هوش مصنوعی در فرایندهای انتخاباتی میتواند مانع از ارائه اطلاعات صحیح و شفاف درباره نامزدها و سیاستهای آنها شود.
برچسبگذاری اجباری محتواهای تولید شده توسط هوش مصنوعی، که اغلب به عنوان جایگزینی برای ممنوعیت کامل این فناوریها مطرح میشود، میتواند پیامدهای ناخواستهای داشته باشد. در حالی که هدف از این اقدام، افزایش آگاهی کاربران و جلوگیری از انتشار اطلاعات نادرست است، اما در عمل ممکن است به نتایج متفاوتی منجر شود. برای مثال، اگر دولت به صورت اجباری تمامی محتواهایی را که به نحوی از هوش مصنوعی استفاده کردهاند، برچسبگذاری کند، حتی محتواهای بیضرر و خنثی نیز ممکن است تحت این برچسب قرار گیرند. این امر میتواند به بیاعتمادی گسترده در میان کاربران منجر شود و به طور کلی بر کیفیت اطلاعات در فضای مجازی تأثیر منفی بگذارد.
تجربه گذشته نشان دادهاست که اگرچه تلاشها برای انتشار اطلاعات نادرست و گمراهکننده پیچیدهتر شدهاند، اما جامعه به تدریج توانایی خود را برای تشخیص این اطلاعات افزایش دادهاست. با افزایش آگاهی عمومی در مورد تکنیکهای دستکاری اطلاعات و توسعه ابزارهای تشخیص تقلب، مخاطبان قادر خواهند بود به صورت انتقادی به اطلاعات ارائه شده نگاه کنند و از اعتبار آنها اطمینان حاصل نمایند.
شاهدیم که جامعه به سرعت به اطلاعات نادرست تولید شده توسط هوش مصنوعی واکنش نشان میدهد. دو نمونه اخیر به خوبی این موضوع را نشان میدهند. در مورد اول، یک تماس تلفنی رباتیک که ادعایی خلاف واقع را مطرح کرده بود، به سرعت افشا و فرد متخلف شناسایی شد. در مورد دوم نیز، تصویری دستکاری شده از یک چهره مشهور به سرعت توسط رسانهها منتشر شد و به عنوان یک نمونه از سوءاستفاده از هوش مصنوعی محکوم شد. این موارد نشان میدهند که جامعه به تدریج در حال یادگیری نحوه تشخیص و مقابله با این نوع اطلاعات نادرست است.
بازار نیز به نگرانیهای کاربران در خصوص اطلاعات نادرست تولید شده توسط هوش مصنوعی پاسخ مثبت دادهاست. پلتفرمهای مختلف در حال ایجاد مکانیزمهایی هستند که به کاربران اجازه میدهند تا به صورت خلاقانه از ابزارهای تکنولوژیکی استفاده کنند، بدون اینکه به حقوق دیگران یا انتشار اطلاعات نادرست کمک کنند. همچنین، این پلتفرمها در حال توسعه ابزارهایی هستند که به کاربران کمک میکنند تا محتواهای مشکوک را شناسایی و گزارش کنند. این اقدامات نشان میدهد که بازار به سمت ایجاد محیطی امنتر و قابل اعتمادتر حرکت میکند.
علاوه بر تلاشهای صورت گرفته توسط دولتها و رسانههای معتبر برای آگاهسازی عموم از خطرات ناشی از اطلاعات نادرست، شاهد آن هستیم که جامعه نیز در حال یادگیری و توسعه مهارتهای لازم برای تشخیص این اطلاعات است. با انتشار اطلاعاتی در مورد شیوههای دستکاری اطلاعات و انگیزههای افراد و گروههای پشت این اقدامات، عموم مردم قادر خواهند بود به صورت آگاهانه به محتواهای منتشر شده در فضای مجازی واکنش نشان دهند. در این راستا، به جای تمرکز صرف بر وضع قوانین و مقررات محدودکننده، سرمایهگذاری بر آموزش و ارتقای سواد رسانهای شهروندان، رویکردی موثرتر و کارآمدتر خواهد بود.
در آستانه رویدادهای مهمی مانند انتخابات، معمولاً نگرانیهای جدیدی در خصوص استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست مطرح میشود. با این حال، تجربه نشان دادهاست که توسعه هنجارهای اجتماعی و اخلاقی در استفاده از فناوری، راهکاری موثرتر از وضع قوانین سختگیرانه است. به عبارت دیگر، به جای آنکه صرفاً به دنبال محدود کردن فناوری باشیم، باید به دنبال ایجاد فرهنگ و ارزشهایی باشیم که استفاده مسئولانه از فناوری را ترویج کند.