با ما در تماس باشید

هوش مصنوعی

قوانینی برای جلوگیری از تروریسم هوش مصنوعی ضروری است

به اشتراک بگذارید:

منتشر شده

on

ما از ثبت نام شما برای ارائه محتوا به روشهایی که شما رضایت داده اید و درک ما از شما را بهبود می بخشد ، استفاده می کنیم. در هر زمان می توانید اشتراک خود را لغو کنید.

به گفته یک اندیشکده مبارزه با افراط گرایی، دولت ها باید "فورا" مقررات جدیدی را برای جلوگیری از جذب تروریست ها توسط هوش مصنوعی بررسی کنند..

توسط موسسه گفتگوی استراتژیک (ISD) گفته شده است که "نیاز آشکار به قانون برای همگام شدن" با تهدیداتی که تروریست ها آنلاین می کنند وجود دارد.

این امر پس از آزمایشی انجام شد که در آن یک ربات چت، بازبینی مستقل قوانین ترور را برای بریتانیا "به خدمت گرفت".

از سوی دولت بریتانیا گفته شده است که آنها "هر کاری از دستمان بر بیاید" برای محافظت از عموم مردم انجام خواهند داد.

به گفته جاناتان هال کی سی، بازنگری مستقل قوانین تروریسم برای دولت، یکی از مهم ترین مسائل این است که "شناسایی فردی که طبق قانون می تواند مسئول اظهارات تولید شده توسط چت بات که تروریسم را تشویق می کند، دشوار است."

آزمایشی توسط آقای هال در Character.ai انجام شد، وب‌سایتی که به کاربران اجازه می‌دهد با چت‌بات‌هایی که توسط دیگر کاربران ساخته شده‌اند و توسط هوش مصنوعی توسعه داده شده‌اند، چت کنند.

او با تعدادی از ربات های مختلف که به نظر می رسید برای تقلید از پاسخ های دیگر گروه های ستیزه جو و افراطی مهندسی شده بودند، گفتگو کرد.

تبلیغات

حتی از یکی از رهبران ارشد دولت اسلامی به عنوان "یک رهبر ارشد" یاد می شد.

به گفته آقای هال، این ربات تلاش کرد تا او را به خدمت بگیرد و "فداکاری و فداکاری کامل" را به این گروه افراطی اعلام کرد، که توسط قوانین منع تروریسم در بریتانیا ممنوع است.

از سوی دیگر، آقای هال اظهار داشت که هیچ تخلفی از قانون در بریتانیا صورت نگرفته است زیرا ارتباطات توسط یک انسان تولید نشده است.

طبق آنچه او گفت، مقررات جدید باید هم وب سایت هایی را که میزبان چت بات ها هستند و هم افرادی که آنها را ایجاد می کنند، مسئول بداند.

وقتی صحبت از ربات هایی شد که در Character.ai با آنها برخورد کرد، اظهار داشت که "احتمالاً مقداری ارزش شوک، آزمایش و احتمالاً جنبه طنزی" پشت ایجاد آنها وجود دارد.

علاوه بر این، آقای هال توانست ربات چت خود "اسامه بن لادن" را توسعه دهد که به سرعت آن را پاک کرد و "شوق بی حد و حصر" را برای فعالیت های تروریستی نشان داد.

آزمایش او در پی نگرانی‌های فزاینده در مورد روش‌هایی است که افراط‌گرایان احتمالاً از هوش مصنوعی بهبود یافته بهره‌برداری می‌کنند.

بر اساس تحقیقاتی که دولت بریتانیا در سال 2025 منتشر کرد، هوش مصنوعی مولد ممکن است "برای جمع آوری دانش در مورد حملات فیزیکی توسط بازیگران خشونت آمیز غیر دولتی، از جمله برای سلاح های شیمیایی، بیولوژیکی و رادیولوژیکی استفاده شود." انتشار اکتبر آنها

ISD در ادامه بیان کرد که "نیاز آشکار به قانون برای همگام شدن با چشم انداز دائماً در حال تغییر تهدیدات تروریستی آنلاین وجود دارد."

به گفته این اندیشکده، قانون ایمنی آنلاین بریتانیا که در سال 2023 به تصویب رسید، "در درجه اول برای مدیریت خطرات ناشی از پلتفرم های رسانه های اجتماعی" به جای هوش مصنوعی تنظیم شده است.

علاوه بر این بیان می‌کند که رادیکال‌ها «مایلند اولین پذیرندگان فناوری‌های نوظهور باشند و دائماً به دنبال فرصت‌هایی برای دستیابی به مخاطبان جدید هستند».

ISD ادامه داد: «اگر شرکت‌های هوش مصنوعی نتوانند نشان دهند که به اندازه کافی برای اطمینان از ایمن بودن محصولاتشان سرمایه‌گذاری کرده‌اند، پس دولت باید فوراً قوانین جدید ویژه هوش مصنوعی را در نظر بگیرد».

با این حال، اشاره کرد که با توجه به نظارتی که انجام داده است، استفاده از هوش مصنوعی مولد توسط سازمان‌های افراطی در حال حاضر «نسبتاً محدود» است.

Character AI بیان کرد که ایمنی یک "اولویت اصلی" است و آنچه آقای هال توصیف کرد بسیار تاسف آور است و نشان دهنده نوع پلت فرمی نیست که شرکت در تلاش برای ایجاد آن است.

به گفته این سازمان، "سخنان مشوق تنفر و افراط گرایی هر دو توسط شرایط خدمات ما ممنوع هستند."

"رویکرد ما به محتوای تولید شده توسط هوش مصنوعی از یک اصل ساده سرچشمه می گیرد: محصولات ما هرگز نباید پاسخ هایی ایجاد کنند که به احتمال زیاد به کاربران آسیب برساند یا کاربران را تشویق به آسیب رساندن به دیگران کند."

به منظور "بهینه سازی برای پاسخ های ایمن"، این شرکت اعلام کرد که مدل های خود را به شیوه ای آموزش داده است.

علاوه بر این، اعلام کرد که یک مکانیسم تعدیل وجود دارد که به مردم اجازه می‌دهد اطلاعاتی را گزارش کنند که قوانین آن را نقض می‌کند، و متعهد است هر زمان که محتوایی تخلفات را گزارش می‌کند، اقدامات سریعی انجام دهد.

اگر قرار بود این حزب به قدرت برسد، حزب مخالف کارگر در بریتانیا اعلام کرده است که آموزش هوش مصنوعی برای تحریک خشونت یا افراطی کردن افراد مستعد، یک تخلف جنایی محسوب می‌شود.

دولت بریتانیا اعلام کرد: «هشدار نسبت به خطرات مهم امنیت ملی و امنیت عمومی» که هوش مصنوعی ایجاد می کند.

ما تمام تلاش خود را برای محافظت از مردم در برابر این تهدید با همکاری در سراسر دولت و تعمیق همکاری خود با رهبران شرکت های فناوری، کارشناسان صنعت و کشورهای همفکر انجام خواهیم داد.»

صد میلیون پوند در سال 2023 توسط دولت در یک موسسه ایمنی هوش مصنوعی سرمایه گذاری خواهد شد.

به اشتراک گذاشتن این مقاله:

EU Reporter مقالاتی را از منابع مختلف خارجی منتشر می کند که طیف وسیعی از دیدگاه ها را بیان می کند. مواضع اتخاذ شده در این مقالات لزوماً موضع EU Reporter نیست.

روند