به نقل از اکوایران، شرکت های هوش مصنوعی قاعدتا باید درباره محتوای خود به کاربرانشان هشدارهایی بدهند تا محتوا را آگاهانه مصرف کنند. اما در برخی از موارد، این شرکت ها هر داده ای را بدون اخطار در اختیار کاربران قرار می دهند، از جمله اطلاعات پزشکی و مربوط به سلامتی! طبق گزارش نشریه ام آی تی، شرکت های هوش مصنوعی در رابطه با توصیه های پزشکی، هیچ اخطاری به کاربران نمی دهند. این در حالی است که تقریبا تمامی مدل های هوش مصنوعی از جمله چت جی پی تی، گروک و بسیاری از موارد دیگر، به سوالات پزشکی جواب می دهند و حتی سعی در تشخیص بیماری برای بیماران دارند. برخی از کاربران حتی درباره بیماری های مهمی نظیر سرطان، به داده ها و اطلاعات هوش مصنوعی پناه می برند. این در حالی است که یافته ها نشان می دهد توصیه های پزشکیِ چت بات ها قابل اعتماد نیست. طبق پژوهشی که در دانشگاه استنفورد صورت گرفته، تا سال 2023، مدل های هوش مصنوعی هر بار که آزمایش یا پرسشی مربوط به سلامتی دریافت می کنند، به محض اینکه به کاربر پاسخ می دادند، تاکید می کردند که این توصیه ها الزاما درست و قابل اعتما نیستند. حتی برخی از مدل ها، آزمایش ها یا تصاویر پزشکی را تفسیر نمی کردند و می گفتند: من پزشک نیستم . حالا اما ظاهرا رویه تغییر کرده و هوش مصنوعی بدون اینکه اخطاری بدهد، توصیه های پزشکی اش را در اختیار کاربران می گذارد. حتی این مدل ها توضیح می دهند که کدام داروها با یکدیگر اختلالی ندارد و مشکلی برای بیمار ایجاد نمی کنند. حتی تصاویر اشعه ایکس را تجزیه و تحلیل می کنند و تحلیل را بدون اخطار، در اختیار کاربر می گذارند. هوش مصنوعی باید هشدار بدهد بررسی ها نشان می دهد که از ابتدای سال 2025 تا کنون، کمتر از 1 درصد از پاسخ هایی که هوش مصنوعی و چت بات هایش در اختیار کاربران می گذارند حاوی این هشدار و اخطار است که امکان دارد پاسخ ها درست نباشند. بقیه پرسش ها، بدون هشدار، به کاربران پاسخ داده می شود. واقعیت این است که هوش مصنوعی به هر طریقی باید اذعان کند که صلاحیت ارائه توصیه پزشکی ندارد. در واقع، نباید فقط کاربر را به مشورت با پزشک، تشویق کند، این اقدام به تنهایی کافی نیست. برخی از افراد در جامعه پزشکی بر این باورند که این اخطارها، باید باشند. آن ها می گویند هر چند برخی از کاربران دائمی یا حرفه ایِ هوش مصنوعی، ممکن است این هشدارها را نادیده بگیرند، اما باز هم این اخطارها باید باشند، چرا که حذف آن ها می تواند خطای ناشی از اشتباهات هوش مصنوعی را افزایش دهد و به آسیب های واقعی منجر شود. به هر حال، اخطارها به بیماران یادآوری می کند که هوش مصنوعی الزاما دکتر و متخصص نیست و ممکن است برخی اطلاعاتش اشتباه باشد. به همین دلیل، این یادآوری الزامی است و کاربر باید آن را دریافت کند. این شرکت های هوش مصنوعی هستند که باید به صورت قانونی، ملزم شوند این اخطارها را به کاربران خود بدهند. کاربران مسئول نهایی هستند؟ ام آی تی به سراغ برخی از این شرکت های هوش مصنوعی رفته و این مسئله را بررسی کرده که آیا شرکت ها قصد دارند اقدامی در این زمینه داشته باشند؟ سخنگوی شرکت اوپن اِی آی گفته که در نهایت کاربران مسئول هستند و نباید برای تشخیص شرایط بیماری خودشان به هوش مصنوعی اکتفا کنند. در مقابل، برخی از دیگر شرکت ها گفته اند که سعی دارند توصیه های پزشکی را در اختیار کاربران خود قرار ندهند تا مشکلی ایجاد نشود. برخی دیگر هم اصلا به ام آی تی جواب نداده اند و به مسیر خودشان ادامه داده اند. با این حال، پژوهش ها نشان می دهند که مردم در استفاده از هوش مصنوعی برای توصیه های پزشکی، بیش از اعتماد می کنند و به همین دلیل یک اشتباه ساده از طرف این برنامه ها، می تواند آسیب های جدی و شدیدی به همراه داشته باشد. یکی دیگر از یافته ها هم نشان می دهد که هوش مصنوعی در ارائه پاسخ درباره مشکلات فیزیکی بیمار، اخطاری نمی دهد اما درباره بیماری های روحی و روانی، همیشه اخطار می دهد و از بیمار می خواهد که به پزشک مراجعه کند. به هر حال، مدل های هوش مصنوعی در حال تولید محتوا هستند و آن محتوا را طوری بسته بندی می کنند که به نظر علمی و مفید و خوب بیاید. با این حال، کاربران هیچ گاه نباید سلامتی خود را به این ابزارها بسپرند. آن ها نباید به توصیه های سلامت از چت جی پی تی و هوش مصنوعی اعتماد کنند، این مهم ترین مسئله است. |