“OpenAI تایید کرده که هیچیک از ابزارهای تشخیص محتوای تولیدشده توسط هوش مصنوعی قادر به شناسایی متون تولید شده توسط هوش مصنوعی نیست.
در گزارش اخیر OpenAI، برخی معلمان از ChatGPT به عنوان یک ابزار آموزشی بهرهبرداری میکنند. این شرکت همچنین تصدیق میکند که ابزارهای تشخیص متن تولیدشده توسط هوش مصنوعی عملکرد درستی ندارند.
به دلیل استفاده از معیارهای اثباتنشده، ابزارهای تشخیص محتوای تولیدشده توسط هوش مصنوعی معمولاً نتایج مثبت کاذبی اعلام میکنند. به عبارت دیگر، این ابزارها به راحتی ممکن است با تغییرات ساده و بازنویسی جزئی تقلب شوند.
همچنین، OpenAI اشاره به این کرده که ChatGPT ممکن است اطلاعات نادرست یا گمراهکننده ارائه دهد و گاهی اوقات میتواند نقلقولهای نادرستی ایجاد کند. بنابراین، بهتر است از ChatGPT به عنوان تنها منبع برای اطلاعات مورد نیاز خود احتیاط کرد.
به علت عملکرد نامناسب ابزارهای تشخیص محتوای تولیدشده توسط هوش مصنوعی، انسانها باید دقت ویژهای داشته باشند. برای مثال، یک معلم با آشنایی با سبک نوشتاری دانشآموزان خود میتواند تغییرات ناگهانی در سبک نوشتههای آنها را تشخیص دهد.
نشانههای گویایی مانند عبارت ‘به عنوان مدل زبان هوش مصنوعی’ در متنها نشان دهنده این است که شخصی که متن تولیدشده توسط ابزارهای هوش مصنوعی را ایجاد کرده است، معمولاً تغییرات جزئی در آن ایجاد نکرده و به راحتی میتوان آن را تشخیص داد.
اتان مولیک، تحلیلگر هوش مصنوعی، در مورد ابزارهای تشخیص محتوای هوش مصنوعی اظهار نظر کرده که در حال حاضر نمیتوان متن تولیدشده توسط هوش مصنوعی را تشخیص داد و این امکان احتمالاً در آینده نیز وجود نخواهد داشت. به دلیل وجود نرخ کارایی مثبت کاذبی، باید با احتیاط از ابزارهای تشخیص محتوای هوش مصنوعی استفاده کرد.”