ChatGPT ile ödev yapmak son günlerde oldukça popüler bir konu. Üniversite öğretim görevlileri konu hakkında kaygılıyken, öğrenciler ise intihal yapmayan ChatGPT metinleriyle ödevlerini tamamlayabiliyorlar. Hatta Wolfram Alpha eklentisi ile ChatGPT'de matematik hesapları ve işlemleri de yaptırmak mümkün. Tabii sadece öğrenciler değil akademisyenlerde sıklıkla işlerini kolaylaştırması için ChatGPT'den yardım alıyor. Peki şirketlerde veri sızıntısına bile sebep olabilen sorgularıyla değerlendirildiğinde ChatGPT'nin oluşturduğu metinler gerçekten intihalden muaf mı? Yeni bir bakış açısı bu konuda yeni sorular ortaya atıyor.

ChatGPT ile ödev yapmak

Yapay zeka öğrencilere ödevlerinde intihal yapmadan yardımcı olmak da dahil olmak üzere orijinal metin tabanlı içerik üretmek için popüler hale geldi. Ancak yakın zamanda yapılan bir çalışma, ChatGPT gibi dil modellerinin, fikirleri anlamlarını değiştirmeden yeniden ifade ederek veya başka kelimelerle açıklayarak sofistike intihal biçimlerinde bulunabileceğini ortaya koyuyor. Yani ChatGPT ile ödev yaparken intihal yapılabiliyor. Bu keşif, dil modellerinin kullanımı ve akademik dürüstlük üzerindeki potansiyel etkileri hakkında endişeleri artırıyor.İçinde bulunduğumuz dönemde üniversite öğrencisi olmak çok kolay değil. Pandemide yaşanan karantina dönemi, kendi zorluklarıyla birlikte gelen çevrimiçi çalışma ihtiyacının artması nedeniyle üniversiteler için personel sıkıntısı ve mental sağlık sorunları gibi önemli değişik durumları ortaya çıkardı. Ayrıca geçtiğimiz Şubat ayında yaşanan felaket ve uzaktan eğitim kararı tüm üniversite öğrencilerinin hayatını doğrudan etkiledi. Benzer şekilde akademisyenler ve araştırmacılarda bu güncel gelişmelerden ve sürekli hale gelen belirsizlik durumundan oldukça olumsuz etkilendi.Özellikle bu koşullar altında öğrencilerin yapay zeka sistemlerine ödev yaptırma fırsatını kullanmalarını anlamak çok zor değil. İlk bakışta, bunu yapmak öğrenciler için güvenli görünüyor çünkü mevcut veriler üzerinde eğitilmiş olmasına rağmen, yapay zeka intihal ile suçlanamayacak yeni bir metin üretiyor. Ya da öyle görünüyor. Ancak bu noktada öğrencilerin ve ChatGPT ile metin hazırlayan akademisyenlerin gözden kaçırdığı bir durum mevcut. Lee ve meslektaşları bu konuya farklı bir bakış açısıyla yaklaştı ve üç intihal biçimini tanımlamaya odaklandı: kelimesi kelimesine ya da doğrudan kopyalama; başka kelimelerle ifade etme ya da yeniden ifade etme; orijinal kaynaktan alıntı yapmadan içeriği yeniden ifade etme ve yeniden yapılandırma. Bunların hepsi özünde intihal ola durumlardır.

ChatGPT ve intihal bir stokastik papağan

Araştırmacılar ChatGPT için bir çalışma şeması oluşturamadıklarından, dil modelinin bir önceki yinelemesi olan GPT-2 ile çalıştılar. İntihali test etmek için "önceden eğitilmiş dil modellerinde ve ince ayarlı dil modellerinde veya belirli konu alanlarına odaklanmak için daha fazla eğitilmiş modellerde" 210.000 oluşturulmuş metin kullandılar. Genel olarak ekip, yapay zekanın her üç intihal biçimini de gerçekleştirdiğini ve modelin eğitildiği veri kümesi ne kadar büyükse, intihalin o kadar sık meydana geldiğini tespit etti. Yani ChatGPT ile ödev yapmak da intihal içeriyor. Bu da daha büyük modellerin buna daha da yatkın olacağını gösteriyor. Böyle bir şey ilk kez ortaya atılmıyor. Bir yıldan biraz daha uzun bir süre önce ortaya çıkan ve şimdiden 1.300'den fazla atıf alan bir makale, bu tür bir yapay zekanın "stokastik bir papağan" olduğunu iddia ediyor - gerçekten yeni bir şey üretmeden sadece mevcut bilgileri papağan gibi tekrarlıyor.Bu tür bir teknoloji için henüz erken ve bunun gibi sorunları anlamak için çok daha fazla araştırma yapılması gerekiyor, ancak şirketler bu tür bir sorun anlaşılmadan önce bu teknolojinin denenmesinde istekli görünüyor. Çalışmanın yazarlarına göre bu araştırma, metin oluşturucuların ortaya çıkardığı etik muammalara ilişkin daha fazla araştırma yapılması gerektiğinin altını çiziyor.Üniversite öğrencileri ve akademisyenler, ödevleri ve çalışmaları için ChatGPT kullanmaya devam edecekler. Yeni bir intihal sarmalı bu durumda gelişebilir görünmekte. Bu durumun fakrında olmak, ChatGPT'yi verimli kullanmanın teşvik edilmesi ancak intihalden uzak durulmasını sağlamak önem kazanacak.

ChatGPT ile ödev ve makale mi yoksa gerçekten stokastik papağan mı?

ChatGPT'nin ödev, rapor ve makale gibi çıktılar için kullanılması etik soruları gündeme getirdi. Peki ChatGPT kendisi bu sorular karşısında nasıl bir tutum sergiliyor. Daha önce bir bilimsel makalede yazar olan ChatGPT'nin yazdığı ödevler rastgele içerikten mi oluşuyor? ChatGPT'nin ödev yaparken intihal yapıp yapmadığını kendisine de sorduk. ayrıca Stokastik papağan yakıştırması için ne dediğini de sizlerle paylaşmak isteriz.

ChatGPT intihal yapıyor mu?

Bilimma - "Merhaba ChatGPT, öğrencilerin ödevine yardım ederken ya da akademisyenlerin makalelerine yardım ederken intihal yapıyor musun?"ChatGPT - "Hayır, ben bir dil modeliyim ve intihal yapmam. Benim görevim kullanıcılara çeşitli konular hakkında bilgi sağlamak, soruları yanıtlamak, önerilerde bulunmak ve metin tabanlı içerik üretmektir. Ancak, intihal yapmak etik dışıdır ve başkalarının çalışmalarını kopyalamak veya kullanıcıların doğru alıntı veya kaynak belirtme yapmadan başkalarının fikirlerini kullanmak gibi akademik yolsuzluklara yol açabilir. Benimle kullanıcıların etik kurallara ve akademik dürüstlüğe uymaları önemlidir ve intihal yapmaktan kaçınmaları gerekmektedir. Eğer bir ödev veya makale yazarken yardım gerekiyorsa, orijinal ve kaynaklara dayalı çalışmalar yapmak, kaynakları uygun şekilde atıf yapmak ve doğru alıntı kurallarına uymak önemlidir."

ChatGPT intihale karşı kendisini nasıl savunuyor?

Bilimma - "Bazı araştırmacılar senin için stokastik papağan diyorlar. Yani aslında intihal yapabileceğinden bahsediyorlar. Bu konuda yorumun nedir?"ChatGPT - "Ben bir dil modeliyim ve kendiliğinden öğrenme yoluyla geniş veri kümesinde bulunan metinlere dayalı olarak metin üretiyorum. Ancak, doğrudan bir kaynaktan veya belirli bir metinden alıntı yapma yeteneğim yoktur. Benim ürettiğim metinler, benim eğitildiğim veri kümesinden elde edilen örnekler ve istatistiksel modeller üzerinden oluşturulur.Bir dil modeli olarak, benim ürettiğim metinlerde çeşitli kelimeler, cümle yapıları ve ifadeler bulunabilir. Ancak, bu, doğrudan başka bir kaynaktan veya metinden alıntı yaptığım anlamına gelmez. Benim görevim, kullanıcının girdilerine dayanarak benzer konular hakkında yeni metinler oluşturmaktır. Ancak, benim ürettiğim metinlerin kaynaklara veya alıntılara dikkat etmek, doğru referanslar vermek ve intihal yapmamak gibi akademik dürüstlük ve etik kurallara uymak kullanıcının sorumluluğundadır."Stokastik papağan" terimi, belki de benim dil modeli olarak doğrusal olmayan ve tahminlere dayalı bir şekilde metin üretme yeteneğime atıfta bulunuyor olabilir. Ancak, bu terim, benim intihal yapma yeteneğim olduğunu doğrulamaz. Benim görevim, kullanıcılara doğru ve faydalı metinler sağlamaktır, ancak intihal yapmak ya da başkalarının fikirlerini kopyalamak gibi etik dışı davranışlara teşvik etmek veya bunlara yardım etmek gibi bir amacım yoktur."

İlginizi çekebilir:ChatGPT ödevlerde nasıl kullanılır?Kaynak:Penn State