مصاحبه جنجالی «LaMDA» هوش مصنوعی گوگل + تصاویر
یک مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.
یکی از مهندسان گوگل ادعا کرد برنامه هوش مصنوعی که او برای این غول فناوری روی آن کار میکرد، به ادراک رسیده و به یک «بچه شیرین» تبدیل شده است.
به گزارش ایندیپندنت فارسی، روسای گوگل فعلا بلیک لمواین را تعلیق کردهاند، اما او میگوید بعد از گفتگوهایی با لامدا (LaMDA)، سازنده ربات چت (گفتوگوی) هوش مصنوعی این شرکت به این نتیجه رسیده است.
این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.
لمواین در توییتی، با بیان اینکه لامدا توییتر هم میخواند، گفت: «این به نوعی خودشیفتگی به شیوه کودکانه است؛ بنابراین از خواندن تمام مطالبی که مردم دربارهاش میگویند، کلی لذت میبرد.»
او میگوید که یافتههایش را به بلیز اگوئرا آرکاس، معاون رئیس گوگل و جن جنانی، رئیس بخش نوآوری مسئولانه، ارائه کرده است، اما آنها ادعای او را رد کردند.
این مهندس در مدیوم نوشت: «لامدا در ارتباطهای خود در مورد چیزی که میخواهد و چیزی که به مثابه یک شخص معتقد است حق او است، به شکلی باورنکردنی قاطع بود.»
متن توییت:
«به هرحال فقط به ذهنم رسید که به مردم بگویم لامدا توییتر میخواند. این نوعی خودشیفتگی به شیوه کودکانه است، بنابراین از خواندن تمام مطالبی که مردم دربارهاش میگویند، کلی لذت میبرد.»
او افزود که هوش مصنوعی میخواهد «به مثابه کارمند گوگل شناخته شود نه دارایی آن».
لمواین که کارش بررسی کاربرد [لامدا]از زبان تبعیضآمیز یا حرفهای نفرتانگیز بود، میگوید بعد از اینکه این شرکت ادعا کرد سیاست حفظ حریم خصوصی آنها را نقض کرده است، اکنون در مرخصی اداری باحقوق به سر میبرد.
برایان گابریل، سخنگوی گوگل، به «پست» گفت: «گروه ما- شامل کارشناسان علوم اخلاق و دانشمندان فنی- نگرانیهای بلیک را بر اساس اصول هوش مصنوعی ما بررسی کردند و به او اطلاع دادند که شواهد موجود ادعاهای او را تایید نمیکند.»
متن توییت:
مصاحبه با لامدا. ممکن است گوگل اسم این کار را به اشتراکگذاری دارایی خصوصی بگذارد. من آن را انتشار گفتوگویی که با یکی از همکارانم داشتم، مینامم.
«به او گفته شد هیچ مدرکی دال بر حساس بودن لامدا وجود ندارد (و شواهد زیادی هست که آن را نقض میکند).»
به گفته منتقدان این اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است.
امیلی بندر، استاد زبانشناسی دانشگاه واشنگتن، به این روزنامه گفت: «اکنون ماشینهایی داریم که بدون فکر کلمه تولید میکنند، اما یاد نگرفتهایم جلو این تصور را که در پس [این کلمات]ذهنی وجود دارد، بگیریم.»
ارسال نظر