Web Analytics Made Easy - Statcounter

برنامه‌های هوش مصنوعی بحث‌های مداوم زیادی را در مورد یکپارچگی هنری، کار و اصالت ایجاد می‌کنند. اما این مانع از تلاش افراد برای کسب سود از سیستم‌ها نمی‌شود. روز سه‌شنبه، رویترز افراد متعددی را معرفی کرد که به تولیدکننده‌های متنی مانند ChatGPT مراجعه می‌کنند تا نسخه‌های خطی کتاب را تهیه کنند و سپس آن‌ها را تنظیم کرده و از طریق سیستم‌هایی مانند پلتفرم کتاب الکترونیکی خودنشر آمازون به فروش می‌رسانند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

سیل فزاینده داستان‌ها به کمک ربات‌های چت اکنون آنقدر فاجعه بار است که حتی برای یکی از مجلات علمی تخیلی پیشرو در اینترنت به طور موقت ارسال شده است.

به گزارش رویترز، فروشگاه کتاب الکترونیکی آمازون شامل حداقل 200 عنوان است که ChatGPT را به‌عنوان نویسنده یا نویسنده مشترک فهرست می‌کند. این عناوین شامل شعرهای الهام‌گرفته از فضا، رمان‌های کودکانه در مورد حیوانات جنگلی و آموزش‌هایی درباره استفاده از ChatGPT برای بهبود زندگی می‌شود.

از آنجایی که آمازون در حال حاضر هیچ سیاست صریحی ندارد که افراد را ملزم کند برنامه‌های متنی تولیدی را به عنوان نویسنده فهرست کنند، کتاب‌هایی با عناوینی به کمک هوش مصنوعی احتمالا بسیار زیاد خواهد بود.

لیندسی همیلتون، سخنگوی آمازون در این باره گفت: «همه کتاب‌های موجود در فروشگاه باید از دستورالعمل‌های محتوای ما، از جمله رعایت حقوق مالکیت معنوی و سایر قوانین قابل اجرا، پیروی کنند».

اما اگرچه عناوین به کمک هوش مصنوعی در بازارهای ادبی مانند فروشگاه کیندل آمازون در حال گسترش هستند، سایر فروشگاه‌ها مجبور هستند همه ارسال‌ها را متوقف کنند تا استراتژی‌های جدید توسعه یابند. در یک پست وبلاگی که هفته گذشته منتشر شد، نیل کلارک، ناشر و سردبیر وب سایت علمی-تخیلی معروف Clarkesworld، اعلام کرد که سایت به دلیل هجوم غیرقابل دفاع در داستان‌های هرزنامه به کمک هوش مصنوعی، پورتال ارسال‌های ناخواسته خود را به طور نامحدود متوقف می‌کند.

کلارک در پست خود فاش کرد که ورودی‌های هرزنامه که منجر به ممنوعیت ارسال‌های بعدی می‌شود، از زمان عرضه عمومی ChatGPT به شدت افزایش یافته است. در 20 روز اول فوریه، ویراستاران بیش از 500 داستان ارسالی را به دلیل سرقت ادبی علامت گذاری کردند. قبل از ChatGPT، مجله معمولا کمتر از 30 داستان سرقت ادبی را در ماه می‌گرفت. در حالی که تعدادی ابزار وجود دارد که می‌تواند به شناسایی مطالب سرقت علمی کمک کند، زمان و هزینه استفاده از آن‌ها را برای انتشاراتی مانند Clarkesworld که با بودجه‌های اندک کار می‌کنند، دشوار می‌کند.

کلارک در وبلاگ خود نوشت: «اگر حوزه نتواند راهی برای رسیدگی به این وضعیت پیدا کند، همه چیز شروع به شکست خواهد کرد. زمان پاسخ بدتر خواهد شد و من حتی نمی‌خواهم به این فکر کنم که چه اتفاقی برای همکارانم می‌افتد که در مورد ارسال‌ها بازخورد ارائه می‌دهند».

منبع: popsci

باشگاه خبرنگاران جوان علمی پزشکی فناوری

منبع: باشگاه خبرنگاران

کلیدواژه: هوش مصنوعی چت جی پی تی هوش مصنوعی ارسال ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۲۹۹۲۶۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

استفاده از ChatGPT برای ارزیابی مشکل قلبی عاقلانه نیست!

پژوهشگران «دانشگاه ایالتی واشنگتن» در یک آزمایش جدید دریافتند که ChatGPT نمی‌تواند عملکرد خوبی را در ارزیابی مشکل قلبی داشته باشد.

به گزارش ایسنا، به رغم توانایی‌های گزارش‌ شده درباره ChatGPT برای قبول شدن در آزمون‌های پزشکی، یک پژوهش جدید نشان می‌دهد که اتکا به این فناوری برای برخی ارزیابی‌های سلامتی مانند بررسی نیاز بیمار مبتلا به درد قفسه سینه به بستری شدن در بیمارستان عاقلانه نیست.

به نقل از میراژ نیوز، در پژوهش جدیدی که شامل هزاران وضعیت شبیه‌سازی شده از بیماران مبتلا به درد قفسه سینه است، ChatGPT نتایج متناقضی را ارائه کرد و سطوح متفاوتی را از ارزیابی خطر مشکل قلبی در داده‌های به‌دست‌آمده از بیماران نشان داد. همچنین، این سیستم هوش مصنوعی مولد نتوانست با روش‌های سنتی مطابقت داشته باشد که پزشکان از آنها برای قضاوت درباره خطر مشکل قلبی بیمار استفاده می‌کنند.

دکتر «توماس هستون»(Thomas Heston) پژوهشگر دانشکده پزشکی «دانشگاه ایالتی واشنگتن»(WSU) گفت: ChatGPT به یک شیوه ثابت عمل نمی‌کرد. با توجه به داده‌های مشابه، ChatGPT رتبه خطر پایینی را ارائه می‌دهد. دفعه بعد یک رتبه متوسط را پیش‌بینی می‌کند و گهگاه تا افزایش خطر پیش می‌رود.

هستون گفت: پژوهشگران باور دارند این مشکل احتمالا به دلیل سطح تصادفی بودن نسخه کنونی نرم‌افزار ChatGPT۴ است که به آن کمک می‌کند تا پاسخ‌هایی را برای شبیه‌سازی زبان طبیعی ارائه دهد. با وجود این، همین تصادفی بودن باعث می‌شود نرم‌افزار برای کاربردهای حوزه سلامت که به یک پاسخ منسجم نیاز دارند، به خوبی کارآیی نداشته باشد.

هستون ادامه داد: ما متوجه شدیم که تنوع زیادی وجود دارد و این تنوع در رویکرد می‌تواند خطرناک باشد. این فناوری می‌تواند برنامه سودمندی باشد اما من معتقدم که فناوری بسیار سریع‌تر از درک ما پیش می‌رود. بنابراین، بسیار مهم است که پژوهش‌های بسیاری را به ‌ویژه در موقعیت‌های بالینی پرخطر انجام دهیم.

درد قفسه سینه، یکی از شکایت‌های رایج در اورژانس است که پزشکان را ملزم می‌کند تا فوریت وضعیت بیمار را مورد ارزیابی قرار دهند. هستون گفت: برخی از موارد بسیار جدی را به راحتی می‌توان با توجه به علائم آنها شناسایی کرد اما موارد کم‌خطر ممکن است پیچیده‌تر باشند؛ به ویژه هنگام تعیین اینکه آیا بیماری باید برای بررسی بیشتر در بیمارستان بستری شود یا به خانه برود و مراقبت‌های سرپایی را دریافت کند.

متخصصان پزشکی در حال حاضر اغلب از یکی از دو معیار موسوم به TIMI و HEART برای ارزیابی خطر مشکل قلبی استفاده می‌کنند. هستون این مقیاس‌ها را به ماشین‌حساب‌هایی تشبیه کرد که متغیرهای انگشت‌شمار را مانند علائم، سابقه سلامت و سن استفاده می‌کنند. در مقابل، یک شبکه عصبی هوش مصنوعی مانند ChatGPT می‌تواند میلیاردها متغیر را به سرعت ارزیابی کند. این بدان معناست که شاید ChatGPT بتواند یک موقعیت پیچیده را سریع‌تر و دقیق‌تر تحلیل کند.

برای این پژوهش، هستون و همکارش دکتر «لارنس لوئیس»(Lawrence Lewis) پژوهشگر «دانشگاه واشنگتن در سنت لوئیس»(WashU) ابتدا سه مجموعه داده را از ۱۰ هزار مورد تصادفی و شبیه‌سازی‌شده ایجاد کردند. یک مجموعه داده دارای هفت متغیر مقیاس TIMI، مجموعه دوم شامل پنج متغیر مقیاس HEART و مجموعه سوم دارای ۴۴ متغیر تصادفی سلامت بود. در دو مجموعه داده اول، ChatGPT ارزیابی خطر متفاوتی را در ۴۵ تا ۴۸ درصد مواقع نسبت به امتیاز ثابت TIMI یا HEART ارائه کرد. پژوهشگران برای آخرین مجموعه داده، موارد را چهار بار اجرا کردند و دریافتند که ChatGPT اغلب با خودش موافق نیست و در ۴۴ درصد مواقع، سطوح ارزیابی متفاوتی را برای موارد مشابه ارائه می‌دهد.

به رغم یافته‌های منفی این پژوهش، هستون پتانسیل زیادی را برای هوش مصنوعی مولد در مراقبت‌های بهداشتی پیش‌بینی می‌کند. به عنوان مثال، با فرض رعایت استانداردهای حفظ حریم خصوصی، کل سوابق پزشکی را می‌توان در برنامه بارگذاری کرد و در شرایط اضطراری، پزشک می‌تواند از ChatGPT بخواهد تا سریع‌ترین حقایق را درباره یک بیمار ارائه دهد. همچنین، پزشکان برای موارد دشوار و پیچیده می‌توانند از برنامه بخواهند تا چندین تشخیص احتمالی را ارائه دهد.

هستون گفت: ChatGPT می‌تواند در ارائه دادن تشخیص افتراقی عالی باشد و این احتمالا یکی از بزرگ‌ترین نقاط قوت آن است. اگر کاملا نمی‌دانید که درباره یک بیمار چه می‌گذرد، می‌توانید از ChatGPT بخواهید تا پنج تشخیص اصلی و استدلال خود را برای هر یک از آنها ارائه دهد. بنابراین، ChatGPT می‌تواند به شما کمک کند تا درباره یک مشکل فکر کنید اما در پاسخ دادن خوب نیست.

این پژوهش در مجله «PLOS ONE» به چاپ رسید.

انتهای پیام

دیگر خبرها

  • «روایت اول» از ردیف یک موسیقی‌دان مهم منتشر شد/خواندن یک قصه جالب
  • پایان سلطه گوگل با این موتور جست‌وجوی جدید
  • ناشران خارجی به نمایشگاه آمدند
  • فراخوان سومین جشنواره پاسخ برتر منتشر شد
  • یکی از قابلیت‌های اسپاتیفای بی‌سروصدا پولی شد
  • ظرفیت تولید نفت امارات بی‌سروصدا افزایش یافت
  • عرضه «پرونده مختارنامه» در نمایشگاه کتاب تهران
  • فراخوان اولین سالانه تبادل عکس ایران منتشر شد
  • «دیکتاتوری با اخلاق سگی» به نمایشگاه کتاب می‌آید
  • استفاده از ChatGPT برای ارزیابی مشکل قلبی عاقلانه نیست!