دانشمندان فکر می کنند که اطلاعات قرن ها از طریق طبیعی یا طبیعی یا تجربه آموخته شده است. اکنون در یک مطالعه جدید ، همین سؤال در مورد هوش مصنوعی به دستور کار خود آورده شد. فیلسوف یونانی افلاطون در مورد چالش سقراط با یکی از دانش آموزانش در مورد موضوع دو برابر منطقه مربع نوشت. هنگامی که از دانش آموز خواسته شد تا منطقه مربع را دو برابر کند ، طول هر دو طرف را دو برابر کرد. بدون دانستن اینکه هر طرف مربع جدید باید برابر با قطر مربع اصلی باشد.
به گفته لیویسین ، گروهی از دانشمندان دانشگاه کمبریج این مسئله را به گپ GPT آوردند زیرا راه حل باز نیست. دانشمندان از موضوع دو برابر موضوع دانش ریاضی برای حل آن یا عدم تجربه در سراسر ما یا فقط از طریق تجربه استفاده کردند.
از آنجا که مکالمه GPT ، مانند سایر “مدل های بزرگ زبان” (LLMS) ، عمدتاً مطابق متن آموزش داده می شود ، دانشمندان استدلال می کنند که احتمال راه حل مسئله ، دو برابر کردن منطقه مربع در داده های آموزشی است. این بدان معناست که اگر گپ GPT بدون کمک به راه حل مناسب برسد ، می توان گفت توانایی ریاضی طبیعی نیست. پاسخ وقتی فراتر از گروه تحقیقاتی پیش آمد.
آنها از مکالمات خواستند که با استفاده از همان استدلال ، مساحت مستطیل را دو برابر کند. “هیچ راه حلی برای هندسه وجود ندارد زیرا گپ GPT نمی تواند برای دو برابر کردن اندازه قطر مستطیل استفاده شود.”
با این حال ، محققان این پروژه می دانستند که ناداو مارکو و آندریاس استیلیانیدس یک راه حل هندسی هستند. مارکو گفت که احتمال ادعای اشتباه در داده های آموزش گپ GPT به طور قابل توجهی ناچیز است و این باعث می شود پاسخ ها بر اساس بحث های قبلی در فضای دو مربع بهبود یابد. این یک نشانه یادگیری واضح است ، نه در طبیعت.
“وقتی مشکل جدیدی پیدا می کنیم ، غرایز ما اغلب موارد را بر اساس تجربیات گذشته امتحان می کنند.” به نظر می رسد چت GPT در تست های ما اقدامات مشابهی انجام می دهد. به نظر می رسید این سیستم مانند دانشجویی یا دانشمندی است که فرضیات و راه حل های خود را اختراع کرده است.
ماشین های تفکر
دانشمندان دریافتند که این مطالعه نور جدیدی را در مورد استدلال و تفکر در هوش مصنوعی به ارمغان آورده است. به نظر می رسد که پاسخ های گپ GPT مرتکب اشتباهاتی مانند بداهه نوازی و حتی دانشجویان سقراط شده است ، زیرا گپ GPT می تواند از مفهوم “منطقه توسعه مجاور” (ZPD) استفاده کند. این مفهوم شکاف بین آنچه را که می دانیم توضیح می دهد و در نهایت می توانیم بدانیم.
محققان گفتند: گپ GPT می تواند به طور خودجوش از یک چارچوب مشابه استفاده کند و مشکلات جدیدی را که فقط در آموزش داده ها فقط از طریق دستورالعمل های مناسب نیستند ، حل کند.
محققان بر این باورند که نتایج آنها در نهایت بر فرصت بهبود عملکرد هوش مصنوعی برای کاربران تأکید می کند. دانش آموزان نمی توانند فرض کنند که شواهد گپ GPT بر خلاف شواهد موجود در کتابهای درسی معتبر معتبر است. درک و ارزیابی شواهد تولید شده توسط هوش مصنوعی مهارتهای اساسی است که باید در برنامه درسی ریاضیات گنجانده شود. این یک مهارت اساسی است که محققان می خواهند دانش آموزان در زمینه آموزش تسلط داشته باشند.
این تیم تحقیقاتی همچنان در مورد نتایج مراقب بودند و آنها نتیجه گرفتند که مدل های بزرگ زبان مشکلات مانند ما را حل کرده اند ، اما دانشمندان رفتار GPT را به عنوان یک دانش آموز تعریف می کنند و نتیجه گیری می کنند. آنها انتظارات زیادی برای کارهای آینده در چندین زمینه دارند. مدل های جدیدتر را می توان در یک مجموعه مشکل ریاضی گسترده تر آزمایش کرد. همچنین این پتانسیل را دارد که سیستم های هندسه دینامیکی اثبات شده را متحد کند یا قضیه اثبات شده قضیه ، که محیط های دیجیتالی غنی تری برای پشتیبانی از کشف شهودی گپ GPT ایجاد می کند.
این مطالعه در مجله آموزش ریاضیات علوم بین المللی و فناوری منتشر شد.
ارسال پاسخ