نشست "هوش مصنوعی و دگردیسی در ماهیت اطلاعات" برگزار شد

نشست "هوش مصنوعی و دگردیسی در ماهیت اطلاعات" روز سه شنبه ۹ دی در دانشکده علوم ارتباطات دانشگاه علامه طباطبائی برگزار شد.

به گزارش روابط عمومی خانه اندیشمندان علوم انسانی، دهمین نشست از سلسله برنامه‌های «زیست‌ارتباطی در جهان‌معاصر» روز سه‌شنبه، نهم دی‌ماه با سخنرانی حمیدرضا رحمانی دهکردی، عضو هیئت‌علمی دانشکده حقوق و علوم‌سیاسی دانشگاه علامه‌طباطبایی، در سالن شورای دانشکده علوم‌ارتباطات این دانشگاه برگزار شد. رحمانی‌دهکردی در این نشست که با حضور استادان، دانشجویان و دبیرعلمی آن حسین زینالی برپا شد، درباره هوش مصنوعی و دگردیسی در ماهیت اطلاعات و مدل‌های تولید متن از پیش آموخته سخن گفت. رحمانی‌دهکردی درباره سه مفهوم در حوزه اطلاعات نکاتی را ارائه کرد و درباره آسیب‌شناسی چت جی‌پی‌تی از منظر روان‌شناختی نکاتی را مطرح کرد. آنچه در ادامه می‌خوانید، گزارشی از سخنرانی دکتر رحمانی‌دهکردی در این نشست است.

رحمانی‌دهکردی در ابتدای سخنرانی خود به کلی بودن مفهوم هوش‌مصنوعی اشاره کرد و به این نکته تاکید کرد که به دلیل کلی بودن آن نمی‌توان به همه ابعاد هوش‌مصنوعی پرداخت.

او درباره ماهیت اطلاعات گفتماهیت اطلاعات نیز طبیعتا از زوایای مختلفی قابل بررسی است؛ از جمله اینکه چگونه اطلاعات از وجه کمی خارج شده و وجه کیفی پیدا می‌کند و چگونه می‌تواند بر بسیاری از امور تاثیر می‌گذارد. در گرایش‌های مارکسیستی، بسیاری بر این مسئله کار شده است، با تاکید بر وجه دیالکتیکی و اینکه همانگونه که پیشگامان مارکسیست می‌گفتند، با افزایش کمی یک پدیده، به تدریج از آن وجه کمی تغییر کرده و وجه کیفی پیدا می‌کند و اثرگذار می‌شود. همچنین اینکه چگونه اطلاعات تبدیل به سرمایه شده است؛ چیزی که مارکس آن را پیش‌بینی نکرده بود و قاعدتا با توجه به رخدادهای بعدی نیز نمی‌توانست به آن بپردازد».

رحمانی‌دهکردی در ادامه صحبت‌هایش به سه مفهوم در حوزه اطلاعات پرداخت و گفت:« من

             را «کژ آگاهی» ترجمه می‌کنم که به اطلاعات نادرستی اشاره دارد که قصد آگاهانه‌ای در پشتMISINFORMATION

آنها نیست.

 را نیز « دژ آگاهی» ترجمه می‌کنم که به معنای گمراه‌سازی عامدانه است.DISINFORMATION

 نیز به اطلاعات درستی گفته می‌شود که خارج از زمینه خود و با قصد آسیب رساندن استفاده می‌شود».MALINFORMATION

او در ادامه صحبت‌هایش درباره آنچه که آن را منبع اطلاعات یا کارگزار اطلاعات یا فاعل شناسا می‌نامید سخن گفت و به بررسی این فاعل شناسا در چت جی‌پی‌تی پرداخت. در این باره گفت:« بحث فاعل شناسا با دکارت آغاز شد که با اصل «من می‌اندیشم، پس هستم» وجود خود را توجیه کرد و اندیشیدن را تنها چیز غیرتوهمی دانست. تجربه‌گرایان این دیدگاه را نقد کردند و بر نقش تجربیات حسی تأکید داشتند، در حالی که متفکرانی مانند کانت، ویتگنشتاین، فروید و فوکو محدودیت‌های آن را از جنبه‌های  context-based ساختارهای ذهنی، زبان، ناخودآگاه و قدرت بررسی کردند. دیدگاه‌های پست‌مدرن نیز اندیشه را 

و محدود به بستر زمان، مکان و فرهنگ دانستند. در عصر هوش مصنوعی، فاعل شناسا در تولید اطلاعات ناپدید می‌شود، منبع پاسخ‌ها مبهم است و مسئولیت بر عهده کسی نیست، که این تحولی عجیب به شمار می‌رود».

رحمانی دهکردی به سه مفهومی که در حوزه اطلاعات نام برده بود برگشت و به این مسئله پرداخت که با پیدایش هوش‌مصنوعی، این مفاهیم در متون تولید شده چه جایگاهی پیدا کرده‌اند.

او درباره مدل‌های زبانی‌ای که ادعای بی‌طرفی داند و در پشت الگوریتم‌هایشان ایدئولوژی و قدرت نهفته است گفت:« در یکی از مقالات خوبی که در این زمینه منتشر شده است، سه پژوهشگر برجسته، دو مدل زبانی چت‌جی‌پی‌تی و دیسپ‌سیک را بررسی و پنجاه پرسش حساس را براساس سه شاخص «درستی اطلاعات»،«بی‌طرفی» و «فیلترینگ محتوا یا امتناع از پاسخ» ارزیابی کردند. نتایج به دست آمده از این پژوهش نشان می‌دهد که این مدل‌های زبانی بی‌طرف نیستند. گاهی این سوگیری به صورت سانسور آشکار و گاه به صورت سوگیری نرم است که در چت‌جی‌پی‌تی به صورت لطیف‌تر بیان شده است».

رحمانی‌دهکردی گفت:« ماشین یاد می‌گیرد گاه برخلاف آنچه برایش برنامه‌ریزی شده عمل کند و این پدیده شگفت‌انگیزی است. ما با نوعی خودمختاری مواجهیم؛ کژ آگاهی فقط از جانب طراحان نیست، بلکه خود مدل‌های ماشینی به شیوه خودمختار اطلاعات غلط تولید می‌کنند. بنابراین در اینجا با چندگونه قاب‌بندی مواجهیم: قاب‌بندی طراحان مدل، قاب‌بندی خود ساختار هوش مصنوعی و قاب‌بندی کاربر که می‌تواند مدل را به سمتی غیرمنتظره هدایت کند. طبیعتاً هوش مصنوعی هنوز فاصله زیادی با عاملیت انسانی دارد».

او در ادامه درباره کژ آگاهی و مشکلاتی که چت جی‌پی‌تی ایجاد می‌کند گفت:« در مورد کژ آگاهینیز، چت‌های جی‌پی‌تی مشکلاتی ایجاد می‌کند: اطلاعاتی ارائه می‌دهد که «مغزپسند» هستند و از نظر علوم شناختی، یعنی دسترسی آسان به اطلاعات مورد نیاز کاربر را فراهم می‌کند. این شبیه عملکرد ایدئولوژی در علوم سیاسی است؛ در حالی که اندیشه سیاسی با شک و پرسش همراه است، ایدئولوژی قطعیت و برنامه عمل ارائه می‌دهد. اطلاعاتی که این چت‌ها به افراد عادی می‌دهند، سریع، قطعی و کم‌ابهام است و خطای شناختی «تعصب تأییدی» را تقویت می‌کند؛ یعنی اطلاعاتی می‌دهد که کاربر دوست دارد بشنود، بدون قضاوت، و حتی پس از دادن پاسخ، برای آن دنبال دلیل می‌گردد. همچنین خطای «توسل به مرجعیت» را دامن می‌زند».

 نیز، اطلاعات درست اما بر ضد کاربر استفاده می‌شود. اینجا پایmalformation رحمانی‌دهکردی گفت:« در زمینه

داده‌های فرافردی درمیان است؛ ردیابی دیجیتالی لایک‌ها، فالوها و رفتارهای کاربر و تأثیرگذاری بر او از طریق پیشنهادهای هدفمند، فیلتر کردن و رتبه‌بندی اطلاعات مطابق علاقه‌اش و حذف دیدگاه‌های رقیب. نتیجه این است که کاربر تصور می‌کند خودش به این سمت حرکت کرده است».

رحمانی در پایان گفت:« به نظر می‌رسد در چنین شرایطی، ما شاهد تعطیل شدن تفکر نقادانه هستیم، زیرا اطلاعات را بدون بررسی عمیق می‌پذیریم و نیز آگاهی واقعی شکل نمی‌گیرد، زیرا حجم زیاد اطلاعات و سطحی‌خوانی، مانع از پردازش عمیق و تبدیل اطلاعات به آگاهی می‌شود. از نظر علوم شناختی، آگاهی نیازمند تأثیرگذاری هیجانی و انتقال اطلاعات به قشر پیش‌پیشانی مغز است، که در این شتاب‌زدگی اطلاعاتی به درستی اتفاق نمی‌افتد».

تهیه گزارش: آیدا آستانی

اخبار

تاریخ نگارش: ۱۴۰۴/۱۰/۱۶

کلیه حقوق مادی و معنوی این سایت و محتوای آن متعلق به خانه اندیشمندان علوم انسانی است.