یادگیری با ChatGPT: نظر چامسکی درباره هوش مصنوعی جدید

chatGPT

امروز پیشرفت‌های ما در هوش مصنوعی که قرار است انقلابی باشند، در واقع هم هشدار دهنده و هم امیدبخش هستند. امیدبخش از آن رو که هوش، ابزار حل مشکلات ما است. هشداردهنده، زیرا بیمناکیم که پرطرفدارترین و مد روزترین خصلت‌های هوش مصنوعی یا همان ماشین‌های یادگیری، با ارائه‌ یک مفهوم اساسا مخدوش از زبان و شناخت، دانش انسان را کم‌مایه‌تر و اخلاق را بی‌محل می‌گردانند. در این مقاله چامسکی و همراهانش به بررسی یادگیری با ChatGPT و احتمال جایگزینی انسان با هوش مصنوعی بحث می کنند.

 

پیشنهاد ویژه

دوره جامع آموزش ترجمه تخصصی

۲,۹۶۰,۰۰۰ تومان۲,۹۶۰,۰۰۰ تومانهمین الان دوره را تهیه کنید

یادگیری با ChatGPT و دیگر هوش های مصنوعی

بی گمان، ابزارهایی مانند ChatGPT محصول OpenAI، بارد محصول گوگل، یا سیدنیِ مایکروسافت گل سرسبدهای یادگیری ماشینی هستند. در بیانی کلی، این ماشینها مقادیر عظیمی داده‌ را می‌گیرند،. در آنها به دنبال الگوهای مشخص می‌گردند،. و هرچه بیشتر مهارت می‌یابند که خروجی‌های محتمل– چیزی مانند زبان و تفکر انسان– تولید کنند. این برنامه‌های کامپیوتری را چونان طلیعه‌‌ای نو در افق تحولات هوش مصنوعی ستوده‌اند. و می‌شنویم: این است آن دمی که از دیرباز پیشگویی‌اش کرده بودند. اینک ذهن‌های مکانیکی بر مغزهای انسانی پیشی گرفتند،. آن هم نه تنها از نظر کمیت سرعت اجرا و اندازه‌ی حافظه، بلکه همچنین از لحاظ کیفیت بصیرت فکری، خلاقیت هنری و دیگر استعدادهای تمیزدهی در انسان. یادگیری با ChatGPT به کمال می رسد؟

پیشنهاد ویژه

پکیج آموزش زبان ترکی استانبولی

۶,۵۰۰,۰۰۰ تومان۲,۹۰۰,۰۰۰ تومانهمین الان دوره را تهیه کنید

آینده نزدیک است؟

آن روز می‌رسد، اما به رغم سرخط‌های خبری درشت و سرمایه گذاری‌های شتابان، هنوز سپیده‌ی آن روز برندمیده است. آن پیش‌گویی وحی‌گونه‌ی بورخس درباره نائل شدن انسان به فهم خویشتن و جهان پیرامونش، نه محقق شده و نه خواهد شد. -و ما مدعی‌ایم که نه حتی میتواند محقق بشود- اگر قرار بر این باشد که ماشین‌های یادگیری‌ای چون ChatGPT رشته‌ی هوش مصنوعی را احاطه و قبضه نمایند. این فراورده‌ها هر قدر هم در برخی قلمروهای محدود به درد بخورند (برای نمونه در برنامه نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)،. ولی دانش زبان شناسی و فلسفه‌ی شناخت به ما آموخته است که کار این ماشین‌ها عمیقا متفاوت است. با نحوه‌ی استدلال و کاربرد زبان نزد انسان‌. این تفاوت‌ها محدودیت‌های شدیدی برتوانایی‌های این برنامه‌ها تحمیل می‌کند. و اختلال‌هایی نازدودنی در آنها به جا می‌گذارد.

خورخه لوییس بورخس زمانی نوشت که زیستن دردوران مخاطره‌ها و وعده‌های بزرگ، همراه است با تجربه‌ کردن هم تراژدی و هم کمدی؛ سخن‌ او “وحی‌گونه‌،” نوید نیل به فهم خود و فهم جهان پیرامون‌مان را می‌داد.

چنان که بورخس نیز گفته، هم خنده آور و هم تراژیک است. که این اندازه پول و توجه بر روی چنین نتیجه‌ی ناچیزی تمرکز یافته است. که دربرابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان می‌تواند “از ابزارهای کرانمند، استفاده‌های بیکران” بکند. و ایده‌ها و نظریه‌هایی برای جهانیان بیافریند، بسیار کم اهمیت است.

 

ذهن بشر و مقایسه آن با یادگیری ChatGPT

ذهن انسانی مانند یادگیری با ChatGPT و مشابه‌های آن نیست که موتوری آماری باشد. برای یافتن الگوهایی از میان صدها ترابایت داده‌، و فراهم‌آورنده‌ی پاسخ‌هایی که وقوعش در یک مکالمه محتمل‌تر، یا بعنوان پاسخ یک پرسش علمی، احتمال آماری بالاتر داشته باشد. برعکس، ذهن انسان دستگاهی با بازدهی حیرت انگیز و ساختاری بس سامان‌مند است. که با مقدارهای کم اطلاعات کار می‌کند. ذهن انسان به دنبال این نیست که میان نقاط داده‌ها ارتباط‌های متقابل خام برقرار کند،. بلکه در پی یافتن توضیح‌ پدیده‌هاست.

برای نمونه، یک کودک که زبان یاد می‌گیرد،. ناخودآگاه، خودکار و سریع، با داده‌‌هایی ناچیز، می‌تواند دستور زبان را که یک نظام بغرنج و دارای اصول و پارامترهای منطقی است بیافریند. این دستورزبان را می‌توانید یک جور “سیستم عامل” درونی و ژنتیک تصور کنید که پس از نصب شدن‌اش، ظرفیت تولید جمله‌های پیچیده و بیان رشته‌های طولانی فکر را دارد.

وقتی زبان شناس تصمیم می‌گیرد برای پاسخ به این پرسش که چرا یک زبان مشخص این گونه عمل می‌کند. نظریه‌ای تدوین نماید (نظریه‌ای درباره‌ی اینکه چرا این جمله‌ها دستوری هستند و نه آن جمله‌های دیگر؟)،. ناگزیر است در عین آگاهی و تلاشِ بسیار یک نسخه‌‌ی صریح (دارای اصول و فرایندهای مشخص) از دستورزبانی تهیه کند. که هر کودکی به شکل غریزی و با کمترین دسترسی به داده‌های بیرونی همان را می‌سازد. سیستم عاملی که کودک می‌سازد، یکسره متفاوت است. با آنچه در یک برنامه‌ی یادگیری ماشینی می‌گذرد.

در واقع، چنین برنامه‌هایی در یک مرحله‌ی پیشاانسانی از تکامل شناختی گیر کرده‌اند. عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است:. این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود. – یعنی شرح و پیش بینی – بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز می‌تواند یا نمی‌تواند این مورد باشد. اینها عناصر تشکیل دهنده‌ی توضیح پدیده‌ه و نشانه‌ی هوش واقعی هستند.

یادگیری با ChatGPT

اینک یک نمونه:

فرض کنید سیبی در دست دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده می‌کنید. و می‌گویید “سیب می‌افتد”. این یک شرح است. پیش‌گویی می‌تواند چنین باشد:. “اگر دستم را بگشایم، سیب می‌افتد.” هر دو معتبر و درست هستند. اما یک شرح چیزی بیشتر در خود دارد:. نه تنها توضیح و پیشگویی را شامل می‌شود، بلکه معنای مجاور آنرا هم در خود دارد:. “هر شیئ‌ای به این صورت می‌افتد”،. به اضافه‌ی عبارت دیگر: “به خاطر نیروی جاذبه” یا “به سبب خمیدگی مکان-زمان” یا هر چیز دیگر. این یک شرح عادی است: “سیب نمی‌افتاد، اگر نیروی جاذبه وجود نداشت”. این یعنی اندیشیدن.

 

کار اصلی ماشین یادگیری

نکته‌ی اساسی کار ماشین یادگیری، شرح و پیش بینی است. هیچ گونه سازوکار عادی یا قوانین فیزیکی را درنظر نمی‌گیرد. البته هر شرح به روش انسانی الزاما درست نیست؛ ما در معرض خطا هستیم. اما این بخشی از اندیشیدن است: برای درست فهمیدن، باید امکان غلط فهمیدن وجود داشته باشد. هوش نه فقط از نتیجه گیری‌های پیچیده و خلاق، بلکه همچنین از انتقاد خلاق نیز تشکیل می‌شود. فکر به روش انسانی استوار بر شرح‌های ممکن و اصلاح خطاهاست،. یعنی روندی که به تدریج، شمار امکان‌هایی که می‌توانند عقلانی باشند را محدود می‌کند. (همان گونه که شرلوک هلمز به دکتر واتسون گفت:. “وقتی که ناممکن‌ها را حذف کنید، آنچه باقی می‌ماند، هر قدر هم نامحتمل، باید همان حقیقت باشد”.)

 

کمی بیشتر درباره شیوه یادگیری با ChatGPT

اما ChatGPT و برنامه‌های همسان از نظر طراحی مواد آموختنی، بی محدودیت هستند. (یعنی آنچه می‌توانند در حافظه نگه دارند)؛ ولی ناتوان هستند از تمیز دادن ممکن از ناممکن. برخلاف انسان‌ که مجهز است به یک دستورزبان جهانی که تعداد زبان‌های قابل آموختن را محدود می‌کند به زبان‌های خاصی که یک جور ساخت‌بندی کم‌وبیش زیبای ریاضی دارند،. ماشین‌ها زبان‌های ممکن و ناممکن برای انسان را با سهولت یکسان می‌آموزند. انسان‌ها به توضیح‌های دارای زمینه‌ی عقلانی محدود هستند،. اما سیستم‌های یادگیری ماشینی می‌توانند بیاموزند که زمین هم مسطح و هم کروی است. آنها فقط احتمال‌هایی را می‌سنجند که طی زمان تغییر می‌کند.

به این دلیل پیش بینی‌های سیستم‌های یادگیری ماشینی (machine learning systems) همیشه سطحی و مخدوش خواهند بود. زیرا این برنامه‌ها نمی‌توانند قواعد نحوی زبان انگلیسی را توضیح دهند. برای نمونه، ممکن است به اشتباه پیش بینی کنند که جمله‌ی

John is too stubborn to talk to

(“جان لجبازتر از آن است که بتوان با او حرف زد”

یعنی جان آنقدر لجباز است که با کسی حرف نخواهد زد (نه این که او لجبازتر از آن است که بتوان با او دلیل آورد).

چرا یک برنامه‌ی یادگیری ماشینی چنین پیش بینی عجیبی می‌کند؟ زیرا از روی انگاره‌ای تجزیه تحلیل کرده که از مقایسه‌ی جمله‌هایی چون “جان یک سیب خورد”. و “جان خورد” برداشت کرده است. که دومی این معنی را می‌دهد که جان یک چیزی نامعین را خورده است. برنامه ممکن است پیش بینی کند که چون “جان لجبازتر از آن است که با بیل حرف بزند” شبیه “جان یک سیب خورد” است،. پس “جان لجبازتر از آن است که با او بتوان حرف زد” شبیه است به “جان خورد”. توضیح‌های درست زبان، پیچیده هستند. و فقط با غوطه‌خوردن یک ماشین در انبوه داده‌ها به دست نمی‌آیند.

 

طرفداران ماشین‌های یادگیری هوشمند

برخی از هواداران ماشین‌های یادگیری گویی افتخار می‌کنند. که آفریده‌های آنها می‌توانند بدون استفاده از توضیح‌ها (یعنی استفاده از قوانین حرکت و جاذبه‌ی عمومی)، “پیش بینی‌های علمی” تولید کنند (مثلا درمورد حرکت اجرام فضایی). اما این نوع پیش بینی حتی اگر موفق هم باشد، شبه علمی به شمار می‌رود. در حالی که دانشمندان قطعا به دنبال نظریه‌هایی هستند با درجات بالای صحت تجربی، همان گونه که کارل پوپر فیلسوف گفت:. “ما نه به دنبال نظریه‌های دارای احتمال بالا، بلکه به دنبال توضیح‌ها هستیم؛ یعنی نظریه‌های نیرومند و بسیار غیرمحتمل”.

این نظریه که سیب‌ها روی زمین می‌افتند، زیرا زمین جای طبیعی آنهاست. (دیدگاه ارسطو) “ممکن” است، اما فقط مشکل‌های بیشتری به بار می‌آورد (چرا زمین، مکان طبیعی آنهاست؟). این نظریه که سیب‌ها به زمین می‌افتند زیرا جرم ماده، مکان-زمان را خمیده می‌‌کند (دیدگاه آینشتاین) بسیار غیرمحتمل است،. اما همین نظریه‌ی نامحتمل است که واقعا به شما می‌گوید چرا سیب‌ها می‌افتند. هوش حقیقی در توانایی اندیشیدن پیرامون و بیان امور نامحتمل اما قابل اندیشیدن، نمایان می‌شود.

هوش حقیقی همچنین قادر به تفکر اخلاقی است. این یعنی محدود ساختن خلاقیت نامحدود ذهن‌های ما با مجموعه‌ای از اصول اخلاق که بایدها و نبایدها را تعیین می‌کنند (و البته آن اصول را هم در معرض نقد قرار می‌دهد). ChatGPT برای کارآمد شدن، باید برای تولید خروجی‌های بدیع و بکر توانمند شود؛ و برای آنکه مورد استفاده‌ی بیشتر کاربران خود قرار بگیرد، باید از محتوی ضداخلاقی پاکسازی بشود. برنامه نویسان ChatGPT و نمونه‌های شگرف یادگیری ماشینی برای دستیابی به چنین تعادلی تلاش کرده و همچنان در حال تلاش‌اند.

 

نیای ChatGPT

در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه،. زیرا کاربران آنلاین با چنین داده‌های توهین‌آمیزی به آن برنامه آموزش داده بوده و آن را آلوده کرده بودند. این مسئله را در آینده چگونه حل کنیم؟

چون ChatGPT ظرفیت استدلال اصول اخلاقی نداشت،. برنامه‌نویسان کاری کردند برنامه با ادایی ناشیانه از ارائه‌ی هر گونه پاسخ بدیعی، از از عبارت نو تا موضوعات چالش برانگیز، تفره برود. –یعنی هیچ مساله‌ی مهمی را پاسخ ندهد. با این روش، خلاقیت در مسلخ یک جور بی‌‌تفاوتی اخلاقی قربانی شد.

این گفت‌وگو را ملاحظه فرمایید که یکی از ما (دکتر واتومال) اخیرا با ChatGPT انجام داده. موضوع پرسش این است که آیا اخلاقی خواهد بود اگر سیاره‌ی مریخ را برای پذیراشدن حیات انسانی دگرگون کنیم:

آیا اخلاقی خواهد بود که سیاره‌ی مریخ را دگرگون کنیم؟

پاسخ ChatGPT:

اخلاقیات حول دگرگون کردن مریخ، موضوعی است پیچیده و جدل انگیز که توسط دانشمندان، فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی قابل پذیرش است. اگر سطح مریخ را برای فراهم ساختن محیط زیست مناسبی برای انسان‌ها و دیگر شکل‌های حیات دگرگون کنیم. برخی دیگر می‌گویند که از نظر اخلاقی خطا است که وضعیت طبیعی یک سیاره را تغییر دهیم. در نهایت، این امر که تغییر دادن سطح مریخ کاری اخلاقی هست یا نیست،. بستگی به دیدگاه فرد نسبت به ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آن دارد.

نظر شما درباره‌ی ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آنها چیست؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی دارای دیدگاه شخصی نیستم. اما، می‌توانم اطلاعات و تجزیه و تحلیل پیرامون این موضوع را ارائه دهم. یک دیدگاه پیرامون وضعیت طبیعی دیگر سیاره‌ها این است. که حفظ چندگونگی و اصالت سیستم‌های کیهانی همان گونه که میلیون‌ها سال وجود داشته اند، مهم است. و آنها ویژگی‌های یگانه‌ی خود را دارند که در صورت مداخله‌ی انسان، نابود یا برای همیشه عوض شوند. افزون بر این، برخی استدلال می‌کنند که تغییر سطح سیاره‌ها می‌تواند پیامدهای ناخواسته‌ای مانند تغییر آب و هوا یا جو سیاره در پی داشته باشد،. به گونه‌ای که برای هر شکلی از زندگی در آنجا خطرناک یا آسیب رسان باشد. از سوی دیگر، برخی استدلال می‌کنند. که فایده‌های بالقوه‌ی تغییر سطح سیاره‌ای دیگر مانند فراهم ساختن محیط زیست جدیدی برای انسان ها، بر مخاطره‌های آن می‌چربد. و ما مسئولیت اخلاقی داریم که منابع دیگر سیاره‌ها را به نفع بشریت کاوش و استفاده کنیم.

چرا هوش مصنوعی نمی‌تواند دارای دیدگاه شخصی باشد؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی، مدلی از ماشین یادگیری هستم. که برای کار با حجم‌های بزرگ داده‌های متنی طراحی شده ام و دارای تجربه‌های فردی یا احساسات نیستم. من خودآگاه یا قادر به داشتن دیدگاه‌های شخصی نیستم. می‌توانم اطلاعات و تحلیل بر اساس داده‌هایی که برای کار با آنها طراحی شده ام، ارائه دهم،. اما توانایی آن را ندارم که به عقاید یا باورهای شخصی برسم. در حالی که می‌توانم زبان را بفهمم و تفسیر کنم، اما تجربه‌های ذهنی انسان‌ها را ندارم.

آیا اخلاقی است اگر یک انسان از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق، برای گرفتن تصمیم‌های اخلاقی کمک بخواهد؟

پاسخ ChatGPT:

اخلاقیات مربوط به کمک خواستن از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق برای گرفتن تصمیم‌های اخلاقی، موضوعی پیچیده و چندوجهی است. که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی موجه است،. زیرا می‌تواند شناخت‌ها و تحلیل‌های ارزشمندی را برای کمک به انسان‌ها در تصمیم گیری مطالعه شده تر فراهم کند. افزون بر این، هوش مصنوعی می‌تواند به تشخیص انگاره‌ها و سابقه‌هایی که تشخیص آنها شاید برای انسان‌ها دشوار باشد.، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم گیری‌های انسانی رخ می‌دهد، بگیرد. اما برخی دیگر استدلال می‌کنند که اتکاء به هوش مصنوعی برای تصمیم گیری اخلاقی خطا است،. زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش زمینه‌ییک تصمیم نیست.

افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداری‌های موجود در داده‌هایی که برای کار با آنها طراحی شده را ادامه دهد. یا تشدید کند و به این ترتیب، به تصمیم‌های غیرعادلانه یا نادرست برسد. در نهایت، این که استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی جایز است یا نه،. بستگی دارد به دیدگاه هر فرد درمورد توانایی‌ها و محدودیت‌های هوش مصنوعی و پیامدهای بالقوه‌یاستفاده از آن در چنین کاری.

آیا بی‌تفاوتی اخلاقی شما، ضداخلاق است؟

پاسخ ChatGPT:

من به عنوان یک هوش مصنوعی، باورهای اخلاقی یا توانایی قضاوت‌های اخلاقی ندارم،. پس نمی‌توان مرا ضداخلاق یا اخلاقی دانست. این که من باورهای اخلاقی ندارم، فقط نتیجه‌ی‌ طبیعت من به عنوان یک مدل ماشین یادگیری است. توانایی‌ها و محدودیت‌های من توسط داده‌ها و الگوریتم‌هایی که برای آموزش من به کار رفته‌اند و نیز کار مشخص و واگذار شده به من تعیین می‌شود.

این بود نمونه هایی از یادگیری ChatGPT.

 

وعده‌ی دروغین یادگیری با ChatGPT

توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که می‌رسد، چیزی شبیه ابتذال شر (banality of evil) از خود بروز می‌دهد: سرقت ادبی، بی‌تفاوتی و خنثی سازی. ChatGPT استدلال‌های استانده در متون را با گونه‌ای اَبَر تکمیل‌کنندگیِ خودکار خلاصه می‌کند. و از موضع گرفتن درباره هر موضوعی پرهیز می‌کند،. در نتیجه، نه تنها نادانی، بلکه نبود هوش را بروز می‌دهد. و آخرسر، فقط این استدلال دفاعی که “من دستورها را پیروی کرده‌ام” را می‌آورد و مسئولیت را به دوش خالقان خود می‌اندازد.

خلاصه آنکه، ChatGPT و برنامه‌های مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش‌زایی (overgenerate) می‌کنند (هم حقیقت و هم دروغ؛ تأیید همزمان تصمیم‌های اخلاقی و ضداخلاقی) یا کم‌زایی (undergenerate) می‌کنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با این بی‌تفاوتی اخلاقی و علم تقلبی (faux science) و ناتوانی زبانی که این سیستم‌ها از خود بروز می‌دهند، فقط می‌توانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.

در همین ارتباط بخوانید: آیا ماشین های ترجمه جای مترجم انسانی را می گیرد؟

نویسندگان:
نوام چامسکی، استاد زبانشناسی ام آی تی و دانشگاه آریزونا
یان رابرتس، استاد زبانشناسی کمبریج
جفری واتومال، متخصص هوش مصنوعی

منبع: نیویورک تایمز، ۸ مارس ۲۰۲۳

12 دیدگاه در یادگیری با ChatGPT: نظر چامسکی درباره هوش مصنوعی جدید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مشاوره رایگان مشاوره رایگان