Ödevlerde yapay zekâ kullanımı giderek artıyor. Tüm dünyada eğitimciler, bu soruna çözüm bulmaya çalışıyor. Yapay zekânın ödevlerde kullanılmasını kopya tarayıcılarla engellemek mümkün olamıyor.
Bu nedenle de eğitimciler, saf bilgi yerine o bilginin belli bir güncel soruna uygulanması, yorumlanması ve yaratıcı tasarımlar gibi öğrenme ortamlarına geçilmesini öneriyor.
Yeditepe Üniversitesi İletişim Fakültesi Radyo, Televizyon ve Sinema Bölümü öğretim üyesi Dr. Elif Karakoç Keskin, konuyla ilgili sorularımızı yanıtladı:
POTANSİYEL TEHDİT
– Yapay zekânın ödevlerde kullanılmasının sonuçları neler? Denetlenme olanağı var mı?
Hem ortaöğretimde hem de yükseköğretimde öğrencilerin çalışmalarını çeşitli yapay zekâ araçlarını kullanarak yürütme eğiliminde olduğunu görüyoruz. Eğitim dünyasındaki akademik üretimde de bu araçlardan faydalanıldığına şahit oluyoruz. Özellikle ChatGPT, Gemini, Copilot gibi sohbet robotları, son yıllarda çok yüksek kullanım oranlarına ulaştı. Bunlarla birlikte, özellikle akademik üretime odaklı; literatür tarayan, makale özetleyen, dil çevirisi yapan yapay zekâ uygulamaları da mevcut.
Diğer yandan minimum girdiyle son derece gerçekçi metinler üretebilen yapay zekâ araçları, geleneksel eğitim dünyası için potansiyel bir tehdit olarak görülüyor. Bu tehditlerin başında intihal ve akademik sahtekârlık geliyor. Bir başkasının fikirlerini, çalışmalarını veya yaratıcı ürününü izinsiz olarak kullanmak ya da kaynak göstermeden kendine aitmiş gibi sunmak yani intihal, büyük bir etik problemken bu sürecin yapay zekâ ile gerçekleştiriliyor olması intihal gerçeğini değiştirmiyor.
Çünkü öğrenciler, yapay zekâ aracılığıyla elde ettikleri içeriği aynen kullandığında kendilerini bu üretim sürecinin dışında bırakarak akademik bir sahtekârlığın aktörleri haline geliyor. Ayrıca bu araçların sunduğu teknolojiye duyulan güven, eğitimde insan zekâsına bağlı olarak muhakeme ve eleştirel düşünme kabiliyetinin de önemini zayıflatıyor.”
YÜZDE 100 TESPİT YOK
– Öğrenciler yapay zekâ karşısında sorumlu bir konuma nasıl yerleşebilir?
Eğitimciler, ölçme ve değerlendirme sürecinde öğrencilerin sunduğu ödev ya da sınavlarda yapay zekâ kullanıp kullanmadıklarını çeşitli intihal programları ile tespit etme girişiminde bulunsa da pek çok programın söz konusu içeriği yüzde 100 biçimde tespit edebileceğine yönelik şüpheler de bulunuyor. Ayrıca bu uygulamaların güvenilirliği de sorgulanabiliyor. Bu sebeple, öğrencilerin bu eğilimini önlemek yerine yapay zekâ ile nasıl sorumlu, etik ve güvenli bir şekilde etkileşim kurabilecekleri sorusu üzerine düşünmek çok daha fazla önem arz ediyor.
Zira gelecek teknolojik gelişmeler de düşünüldüğünde bu gelişmelere karşı “çevrimdışı” kalabilmek pek mümkün değil. İşte tam da bu sebeple, yapay zekânın eğitime entegrasyonu noktasında tüm paydaşların okuryazarlık becerileri kazanarak algoritmik içerik sarmallarına karşı savunma mekanizmalarını işler hale getirdiği bir geleceği düşünebilir ve böylece öğrencilerin yapay zekâ karşısındaki konumlarını belirlemelerinde etkili olabiliriz.
– Yapay zekâ eğitimde nasıl kullanılmalı?
Eğitimciler, yaşam boyu öğrenme perspektifiyle aşağıdaki önerileri göz önünde bulundurarak insan merkezli yapay zekâ anlayışını benimseyebilir ve böylece öğrencilerin de yapay zekâ kullanımlarında sorumlu bir anlayış kazanmasını sağlayabilir:
- Yapay zekâ ve yapay zekâ ile ilişkili veri, algoritma ve makine öğrenmesi gibi kavramların, uygulamaların ne olduğunu anlatmak ve böylece öğrencilerde yapay zekâ okuryazarlığını geliştirmek,
- Yapay zekânın çalışma prensibinden kaynaklanan potansiyel risklere ve zararlara karşı farkındalık sağlamak ve bu yolla, etik ve sorumlu davranışı teşvik ederek güvenli kullanımı vurgulamak,
- Öğrencilerin yapay zekâ ile etkileşimlerinde kendi eğilimlerini görebilme, kaynak doğrulama pratiğini ve sorgulama refleksini geliştirme kazanımlarının sağlanması,
- Eğitim ve teknoloji paydaşları ile işbirliği sağlayarak, ders planlamalarında yapay zekâya karşı sorgulayıcı bakış açısını teşvik eden etkinliklerin ve materyallerin oluşturulmasını sağlamak,
- Tüm sınıf düzeylerinde ve bölümlerinde bilimsel araştırma etiği derslerine yer vermek.
ENGELLEMEK ÇOK ZOR
Boğaziçi Üniversitesi Eğitim Fakültesi Psikolojik Danışmanlık ve Rehberlik Fakültesi öğretim üyesi Doç. Dr. Deniz Albayrak Kaymak, ödevlerde yaygın yapay zekâ kullanımını kopya tarayıcılarla engellemenin çok zor olduğunu belirterek “Bu nedenle konu denetlemekten çıkmalı, saf bilgi yerine o bilginin belli bir güncel soruna uygulanması, yorumlanması ve yaratıcı tasarımlar gibi öğrenme ortamlarına geçmek durumdayız. Açık kitap, defterli sınavlar gibi” dedi.
Yapay zekânın ödevlerde kullanılmasının yasaklanmasının sadece geçici bir çözüm olabileceğini söyleyen Doç. Dr. Kaymak, şunları söyledi:
“Yapay zekâ ezberci yöntemleri geçersiz kılıyor. Yasaklanmakla geçersiz olan geçerli kılınamaz. Varsın bilgiyi alsın ama anlamlandırmak, yaratmak yani halen insana özgü olan zaten geçerli olandır, esas olan ona yönelmek. Yapay zekâyı susturmak değil onunla diyaloğa girmek gerekiyor. Birbiriyle diyaloğu başaramayan insan türünü bu diyaloğa mecbur bırakacak yapay zekâ ki bunu heyecan verici buluyorum. Yeter ki geleceğe evrensel hukuk ve etik yön versin.”
YASAL DÜZENLEME BİR AN ÖNCE YAPILMALI
Bahçeşehir Üniversitesi İdare Hukuku Anabilim Dalı Başkanı Prof. Dr. Ahmet Yayla, “Ülkemizde yapay zekâyla ilgili yasal düzenleme bir an önce yapılmalı” dedi.
Avrupa Birliği’nin uzun bir çalışma sonrasında yasal düzenleme yaptığını belirten Prof. Dr. Yayla, bilinçaltı mesajlar vererek kişileri manipüle edecek yapay zekâ sistemlerinin tamamen yasaklandığını söyledi.
Diğer yapay zekâ sistemleri arasında da konularına göre yüksek riskli sistemler ve bu nitelikte olmayanlar bakımından ayırım yapıldığını vurgulayan Prof. Dr. Yayla, ülkemizde yapılacak düzenleme için bu çalışmanın kılavuz olabileceğini söyledi.