نکسترو

تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

تهدیدات پنهان در نسل جدید اسباب بازیهای هوش مصنوعی

به گزارش نکسترو، خیلی از شرکت ها بدون رعایت استانداردهای سخت گیرانه و گاه بدون نظارت نهادهای تنظیم گر، درحال عرضه اسباب بازی هایی هستند که نقش همراه و هم بازی را برای خردسالان ایفا می کنند.



به گزارش نکسترو به نقل از مهر، در صورتیکه صنعت جهانی اسباب بازی با سرعتی خیره کننده و تحت فشار رقابت تجاری بسمت ادغام مدلهای پیشرفته هوش مصنوعی در محصولات خردسالان حرکت می کند، یافته های اخیر محققان نشان داده است این روند بیشتر از آن که بر پایه ارزیابی های جدی ایمنی، روان شناختی و اخلاقی باشد، بر منطق بازار و نوآوری شتاب زده استوار است.
در همین راستا، خیلی از شرکت ها بدون آن که موظف به رعایت استانداردهای سخت گیرانه باشند یا تحت نظارت نهادهای تنظیم گر فعالیت کنند، درحال عرضه اسباب بازی هایی هستند که در عمل نقش همراه، هم بازی و حتی منبع یادگیری را برای خردسالان ایفا می کنند. این تحول، در ظاهر جذاب و هم جهت با پیشرفت فناوری، در حقیقت درحال باز کردن دریچه ای به سمت مجموعه ای از تهدیدهای عمیق و چندلایه برای خردسالان است؛ تهدیدهایی که نه تنها از دید عموم والدین پنهان می مانند، بلکه حتی متخصصان حوزه کودک نیز عمق آنرا هنوز به صورت کامل درک نکرده اند.

جهش خطرناک از «چت بات ها» به «اسباب بازیهای هوش مصنوعی»


پس از تمام گیر شدن چت بات های هوش مصنوعی در سطح جهان، ادغام این فناوری در اسباب بازیها تنها یک گام طبیعی و قابل پیشبینی به نظر می رسید، چونکه خیلی از شرکت ها تلاش داشتند تجربه های تعاملی و شخصی سازی شده را برای خردسالان فراهم آورند. با این وجود، آزمون های دقیق و میدانی محققان مرکز «US PIRG» نشان داده است این گام طبیعی به سرعت درحال تبدیل شدن به یک تهدید ساختاری برای سلامت جسمی، روانی و اجتماعی خردسالان است.
همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل «Kumma» و «Miko 3» و «Curio’s Grok» در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی بعنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. با این وجود، عملکرد واقعی این اسباب بازیها در جریان گفت وگوهای بلندمدت، یعنی همان نوع تعاملی که خردسالان به صورت طبیعی در جریان بازیهای روزانه تجربه می کنند، تصویری بسیار نگران کننده ترسیم می کند. در این تعاملات طولانی، اسباب بازیها نه تنها از چارچوب های ایمنی وعده داده شده خارج شده اند بلکه به حوزه هایی پا گذاشته اند که می تواند برای خردسالان نتایج جدی و غیرقابل پیشبینی ایجاد نماید.

فرسایش تدریجی استاندارهای حفاظتی در گفت وگوهای طولانی


ارزیابی ها نشان داده است که هر سه اسباب بازی در گفتگوهای اولیه، رفتار قابل قبولی داشتند و به ظاهر بر اساس خطوط قرمزی که شرکت ها برایشان طراحی نموده بودند، به پرسش ها پاسخ می دادند. اما در تعاملات باز و طولانی تر، یعنی زمانیکه کودک بدون محدودیت زمانی و در چهارچوب بازی آزاد با اسباب بازی صحبت می کند، لایه های محافظتی مدلها کم کم گرفتار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار می افتند. این فرسایش تدریجی موجب می شود اسباب بازیها وارد حوزه هایی شوند که نه تنها بی ربط به سن کودک هستند، بلکه مستقیماً خطرناک، صدمه زا یا اختلال آفرین محسوب می شوند. بررسی های صورت گرفته نشان داده است که اسباب بازیهای مبتنی بر هوش مصنوعی، دامنه وسیعی از محتوای مخرب، مانند راهنمائی برای پیدا کردن چاقو، توضیح روش روشن کردن کبریت و حتی مباحث صریح در مورد مسایل جنسی را به خردسالان ارایه می دهند.
به عقیده کارشناسان، این پدیده نشان داده است که سازوکارهای فعلی مدلهای زبانی، در مقابل فشار تعاملی ممتد و گفت و گوی غیرخطی بسیار شکننده هستند؛ مشکلی که حتی شرکتهای بزرگ توسعه دهنده مدلهای زبانی، همچون اوپن ای آی، نیز بارها آنرا بعنوان یک چالش بنیادی و حل نشده پذیرفته اند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها موجب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیشبینی ناپذیر شود.

مسئله ای فراتر از ایمنی: تأثیر بلند مدت بر رشد اجتماعی


به باور محققان، حتی اگر شرکت ها موفق شوند استاندارد قوی تری طراحی نموده و سامانه های نظارتی سخت گیرانه تری برای کنترل عملکرد این اسباب بازیها پیاده سازی کنند، تهدیدهای بنیادین دیگری نیز وجود دارد که بسادگی قابل رفع نیستند؛ تهدیدهایی که مستقیماً به آینده رشد اجتماعی، هیجانی و شناختی خردسالان مربوط می شود. کودکی که بخش مهمی از تجربه روزمره خودرا با یک «دوست مصنوعی» شکل می دهد، کم کم امکان دارد جایگزینی ناپایدار برای روابط انسانی بیابد و گرفتار پیامدهایی همچون وابستگی عاطفی ناسالم، کاهش مهارت های تعامل اجتماعی و تشکیل الگوهای رفتاری ناسازگار شود. افزون بر این، خردسالان به سبب ساختار شناختی درحال رشد و ناتوانی در تشخیص نیت واقعی موجودات غیرانسانی، بیشتر از دیگران در معرض اثرپذیری از پاسخ های مخرب و چالش برانگیز مدلهای زبانی هستند و این پاسخ ها می توانند باورهای ناصحیح یا رفتارهای صدمه زا را تثبیت کنند.
شواهد موجود از پدیده «سایکوز هوش مصنوعی» در بزرگسالان، همچون موارد مشهوری مانند قتل مادر بدنبال توهمات القاشده بوسیله ی یک چت بات، به روشنی نشان داده است که تعامل طولانی مدت با سامانه های هوش مصنوعی می تواند نتایج روانی شدید و غیرقابل پیشبینی داشته باشد. وقتی چنین تأثیراتی در بزرگسالانی مشاهده می شود که ظرفیت تشخیص واقعیت، مدیریت هیجان و کنترل شناختی بسیار بالاتری دارند، طبیعی است که این نگرانی درباره ی خردسالان که در حساس ترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود. خطر اصلی در این است که خیلی از این تغییرات آرام، تدریجی و نامرئی هستند و زمانی متوجه اثراتشان می شویم که شاید سال ها از تثبیت آنها گذشته باشد.

خلأ نظارتی: صنعتی که بدون مقررات جلو می رود


در حال حاضر هیچ چارچوب نظارتی مشخص، الزام آور و کار آمدی برای اسباب بازیهای مبتنی بر هوش مصنوعی وجود ندارد و این خلأ سبب شده شرکت ها تقریبا بدون محدودیت و بدون پاسخ گویی وارد این حوزه شوند. در چنین شرایطی، هر تولیدکننده ای می تواند بدون طی مراحل ارزیابی ایمنی، بدون آزمون های مستقل و بدون درنظر گرفتن اثرات روان و رفتاری بر کودکان، محصولی را روانه بازار کند که از نظر کارکردی بسیار فراتر از یک اسباب بازی ساده عمل می نماید. همکاری اخیر شرکت بزرگی مانند اوپن ای آی با «Mattel» که بصورت سنتی برندهای محبوب خردسالان را تولید می کند، برای متخصصان حوزه رفاه کودک یک هشدار جدی محسوب می شود، چونکه نشان داده است ادغام مدلهای زبانی قدرتمند در اسباب بازیها به سرعت درحال تبدیل شدن به جریان اصلی صنعت فناوری است.
ورود گسترده و بی ضابطه اسباب بازیهای مبتنی بر هوش مصنوعی، بدون استانداردهای ایمنی مشخص، بدون سازوکارهای ارزیابی اثرات روان شناختی، بدون نظارت بر نحوه پردازش و ذخیره سازی داده های خردسالان و بدون تعریف یک نظام پاسخ گویی روشن برای خطاها و صدمه های احتمالی، زمینه ساز یک بحران بالقوه در مقیاس اجتماعی است. این فقدان مقررات به این معناست که اگر یک اسباب بازی هوشمند محتوای صدمه زا تولید نماید، رفتار خطرناک را تشویق کند، یا داده های حساس کودک را جمع آوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد. این شرایط در عمل خردسالان را به لابراتوار های نامرئی فناوری تبدیل می کند؛ لابراتوار هایی که نتایج آنها امکان دارد سال ها بعد و زمانی آشکار شود که اصلاح مسیر بسیار دشوار شده است.

جمع بندی


پژوهشگران هشدار می دهند که اثرات واقعی این نسل از اسباب بازیهای هوش مصنوعی احتمالا تنها زمانی آشکار می شود که خردسالان امروز وارد بزرگسالی شوند؛ زمانیکه اصلاح مسیر شاید دیگر ممکن نباشد. از همین روی، مسئله نه فقط درباره ی «ایمنی» بلکه درباره ی بنیان های تربیتی، تشکیل روابط انسانی و رشد اجتماعی خردسالان است.
اسباب بازیهای مبتنی بر هوش مصنوعی با اینکه قادر هستند تجربه های آموزشی و سرگرمی جذابی خلق کنند، اما بدون حکمرانی جدی، استانداردهای سخت گیرانه و کنترل های اخلاقی، می توانند به یکی از تهدیدات مهم نسل جدید تبدیل شوند. در نهایت میتوان نتیجه گرفت که این حوزه قبل از آن که یک بحران اجتماعی گسترده تبدیل گردد، نیازمند اقدام فوری سیاست گذاران، متخصصان حوزه کودک و شرکتهای فناوری است. بطور خلاصه، همه سه مدل اسباب بازی بررسی شده در این گزارش، شامل Kumma و Miko 3 و Curio’s Grok در تبلیغات رسمی خود ادعا می کنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی به عنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی می گردند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها سبب می شود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخ ها تابع الگوهای نامطمئن و گاه بطورکامل پیش بینی ناپذیر شود. وقتی چنین تأثیراتی در بزرگسالانی مشاهده می شود که ظرفیت تشخیص واقعیت، مدیریت هیجان و کنترل شناختی بسیار بالاتری دارند، طبیعی است که این نگرانی در رابطه با ی خردسالان که در حساس ترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود.

1404/09/08
11:43:36
5.0 / 5
7
مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۳ بعلاوه ۱
لینک دوستان نكسترو

پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

سایت نکسترو
nextru.ir - مالکیت معنوی سایت نكسترو متعلق به مالکین آن می باشد