PDF veya TXT dosyalarının özgünlük değerlendirmesini yapar
Sistemimiz, metinlerin özgünlüğünü (orijinalliğini) bilimsel yöntemlerle değerlendirmek için geliştirilmiş çok yönlü bir algoritma kullanır. İşte detaylı çalışma prensibi:
1. Dosya Yükleme ve Ön İşleme: Kullanıcı tarafından yüklenen PDF ve TXT dosyaları okunur. Metin içeriği çıkarılır ve temel temizleme işlemleri yapılır (örneğin, gereksiz boşlukların kaldırılması).
2. Dilbilimsel Analiz: Metinler, cümlelere ve kelimelere (token) ayrılır. Her kelimenin kökü (lemma) ve sözcük türü (POS tagging - Part-of-Speech) belirlenir. Bu aşamada spaCy gibi gelişmiş Doğal Dil İşleme (NLP) kütüphanelerinden yararlanılır.
3. Özellik Çıkarımı: Her metinden çeşitli sayısal özellikler (features) hesaplanır. Bu özellikler metnin özgünlüğünü farklı açılardan yansıtır:
4. Uzunluk Normalizasyonu: Metinlerin uzunlukları farklı olabileceğinden, bazı özellikler (örn: leksik çeşitlilik) metin uzunluğuna göre normalleştirilir. Bu, kısa ve uzun metinlerin daha adil karşılaştırılmasını sağlar. Çok uzun metinler için örnekleme (sampling) teknikleri kullanılabilir.
5. Karşılaştırmalı Analiz (Eğer birden fazla dosya varsa veya referans derlem kullanılıyorsa):
6. Özgünlük Puanı Hesaplaması: Çıkarılan tüm bu özellikler ve karşılaştırmalı analiz sonuçları, önceden belirlenmiş ağırlıklarla birleştirilerek her metin için genel bir özgünlük puanı (0 ile 1 arasında) hesaplanır. Yüksek puan, daha yüksek özgünlük anlamına gelir.
7. Sonuçların Sunulması: Analiz edilen metinler, özgünlük puanlarına göre sıralanır. Her metin için detaylı özellikler ve en benzer olduğu diğer metinler (eğer varsa) kullanıcıya sunulur. Sonuçlar ayrıca JSON formatında indirilebilir.
Referans Derlem Kullanımı (İsteğe Bağlı): Eğer kullanıcı "Referans Derleme Göre Analiz Et" seçeneğini işaretlerse, yüklediği dosyalar sadece kendi aralarında değil, aynı zamanda sistem yöneticisi tarafından önceden oluşturulmuş geniş bir referans metin koleksiyonuyla da karşılaştırılır. Bu, özellikle belirli bir alanda (örneğin, hukuk metinleri, tıbbi makaleler) veya bir kurum içinde üretilen metinlerin özgünlüğünü daha bağlamsal bir şekilde değerlendirmek için faydalıdır.
Metin özgünlük analizi, bir metnin orijinalliğini ve benzersizliğini çeşitli dilbilimsel, istatistiksel ve hesaplamalı yöntemlerle değerlendiren bilimsel bir disiplindir. Temelde şu unsurları inceler:
Bir metnin sunduğu bilgi veya fikirlerin yenilikçiliği ve benzersizliğidir. Tamamen yeni fikirlerin yanı sıra, mevcut fikirlerin orijinal sentezi veya yeniden yorumlanması da bu kapsamdadır.
Yazarın dil kullanımındaki ayırt edici özellikleri ifade eder. Sözcük seçimi, cümle yapıları, kullanılan ifade kalıpları ve stil özellikleri bu kategoriye girer.
Metnin organizasyonu, fikirlerin akışı, argüman yapısı ve genel kurgusu ile ilgilidir. Benzersiz yapılandırma yöntemleri özgünlüğün önemli bir göstergesidir.
Yazarın kendine has anlatım tarzı, metafor kullanımı, ton, ritim ve diğer retorik araçları kullanma biçimidir.
Metin özgünlük analizi, gelişimini şu aşamalardan geçerek sürdürmüştür:
Uzmanlar tarafından yapılan stilistik ve dilbilimsel inceleme ile sınırlı kalmıştır. Klasik edebi analizler ve filolojik çalışmalar bu dönemin örnekleridir.
Lexical richness, token-type oranları ve istatistiksel örüntü tanıma yöntemlerinin geliştirilmesiyle bilgisayar destekli analizlerin başlangıcı.
İleri düzey doğal dil işleme tekniklerinin ve makine öğrenmesi algoritmalarının entegrasyonu. Vektör uzayı modelleri ve n-gram analizi gibi tekniklerin geliştirilmesi.
Transformerlar, BERT, GPT gibi derin öğrenme modellerinin kullanımıyla semantik düzeyde analiz, bağlamsal anlamlandırma ve çok boyutlu özgünlük değerlendirmesi.
Metin özgünlüğünü değerlendirmek için kullanılan çeşitli metrikler şunlardır:
Bir metinde kullanılan benzersiz kelime sayısının toplam kelime sayısına oranıdır. Yüksek TTR, zengin kelime dağarcığını ve potansiyel olarak daha özgün metni gösterir.
Burada $|V|$ benzersiz kelime sayısı, $N$ ise toplam kelime sayısıdır.
Metinde sadece bir kez geçen kelimelerin (hapax legomena) toplam kelime sayısına oranıdır. Yüksek oran, metindeki kelime kullanımının çeşitliliğini ve potansiyel olarak daha yüksek özgünlüğü gösterir.
Burada $V_1$ metinde yalnızca bir kez geçen kelime sayısıdır.
Metin boyunca TTR değerlerinin stabilliğini ölçer. Uzun metinlerdeki TTR'nin düşme eğilimini düzeltmek için geliştirilmiştir.
Kelime frekans dağılımının bir ölçüsüdür ve metindeki kelime kullanım çeşitliliğini gösterir.
(Burada $f(i)$ frekansı $i$ olan kelimelerin sayısıdır, sum $i=1$ to $V_{max\_freq}$ olmalı)
Metindeki kelime dağılımının belirsizliğini ölçer. Yüksek entropi, daha çeşitli ve potansiyel olarak daha özgün bir kelime kullanımını gösterir.
Bir dil modelinin metin üzerindeki şaşkınlık düzeyidir. Düşük perplexity, metnin daha tahmin edilebilir olduğunu gösterir.
Bir metnin sıkıştırılabilme derecesi, içerdiği bilgi miktarının bir göstergesidir. Düşük sıkıştırma oranı (yani daha az sıkıştırılabilir olması), daha yüksek özgünlük anlamına gelebilir.
Metindeki isim, fiil, sıfat gibi sözcük türlerinin dağılımı ve oranları. Yazarlar arasında ayırt edici bir özelliktir.
Cümle yapılarının karmaşıklığını ölçer. Yan cümle sayısı, sözdizimsel derinlik ve bağımlılık uzunlukları kullanılır.
Sözcük türlerinin ardışık sıralanışının analizidir. Yazarın dilbilgisel tercihlerini yansıtır.
Metinlerdeki gizli semantik ilişkileri ortaya çıkaran bir tekniktir. Metinler arasındaki semantik benzerlikleri değerlendirir.
Metindeki konu tutarlılığı ve konu geçişlerinin akıcılığını ölçer.
Metindeki kavramlar arasındaki ilişkilerin yoğunluğu ve bağlantı yapısı.
Metin özgünlük analizi için kullanılan başlıca metodolojik yaklaşımlar şunlardır:
N-gram analizi, metinde yer alan ardışık kelime gruplarının (n-gram) incelenmesine dayanır.
Metinleri yüksek boyutlu vektör uzaylarında temsil ederek analiz eden yöntemlerdir.
Kelimelerin metinde geçme sıklığı (TF) ile ters belge frekansının (IDF) çarpımına dayanan bir ağırlıklandırma yöntemidir.
$TF(t,d)$ = $t$ teriminin $d$ dokümanındaki frekansı
$IDF(t,D) = \log\frac{|D|}{|\{d' \in D \text{ öyle ki } t \in d'\}|}$ (D: doküman koleksiyonu)
Word2Vec, GloVe, FastText gibi teknolojilerle kelimelerin anlamsal özelliklerini koruyan düşük boyutlu vektörlere dönüştürülmesi.
Doc2Vec, Universal Sentence Encoder gibi yöntemlerle belgelerin vektör gösterimlerinin oluşturulması.
BERT, GPT, RoBERTa gibi dil modelleri kullanılarak metinlerin bağlamsal temsilleri oluşturulur.
İki metin arasındaki benzerliği doğrudan öğrenen sinir ağı mimarileri.
Etiketlenmemiş veriler üzerinde öz denetimli öğrenme ile metinlerin özelliklerini çıkaran modeller.
Farklı analiz yöntemlerinin güçlü yanlarını birleştiren yaklaşımlardır.
Leksikal, sözdizimsel, semantik ve pragmatik düzeylerdeki özelliklerin birlikte değerlendirilmesi.
Farklı özelliklerin önem derecelerine göre ağırlıklandırılarak birleştirilmesi (Bu sistem bu yöntemi kullanır).
Çeşitli metriklerin normalize edilmiş bir indeks değerine dönüştürülmesi.
Metin özgünlük analizi teknikleri çeşitli alanlarda önemli uygulamalara sahiptir:
Öğrenci ödevleri, akademik makaleler ve tezlerde intihal tespiti ve önlenmesi. İleri düzey özgünlük analizleri, basit metin eşleştirmelerinin ötesine geçerek daha sofistike intihal yöntemlerini de tespit edebilir.
Akademik çalışmaların özgünlük ve yenilikçilik açısından değerlendirilmesi. Alana getirdiği katkının niceliksel olarak ölçülmesi.
Öğrencilerin yazma becerilerinin gelişimini ve özgün içerik üretme yeteneklerinin zaman içindeki ilerleyişini takip etme.
Anonim metinlerin muhtemel yazarlarını belirleme. Yazarların dilsel parmak izlerini kullanarak metinlerin gerçek yazarlarını tespit etme.
Yazarların üslup özelliklerinin ve stilistik tercihlerinin belirlenmesi. Yazarlar arasındaki stilistik benzerliklerin ve farklılıkların ortaya çıkarılması.
Metinlerin tür, dönem veya edebi akım açısından sınıflandırılması. Özgün edebi çalışmaların belirlenmesi.
Web içerikleri, blog yazıları ve haber makalelerinin kalite ve özgünlük açısından değerlendirilmesi.
Özgün içeriğin arama motoru optimizasyonuna (SEO) katkısının değerlendirilmesi. İçerik stratejilerinin özgünlük odaklı geliştirilmesi.
Yapay zeka tarafından otomatik olarak üretilen (örn: GPT modelleri) içeriklerin insan yazımından ayırt edilmesi.
Telif hakkı ihlallerinin tespiti ve önlenmesi. İçerik korsanlığıyla mücadele.
Adli vakalarda metin analizi ve yazar tanımlama. İhtilaflı belgelerin (tehdit mektupları, intihar notları vb.) analizi ve karşılaştırması.
Dezenformasyon ve manipülasyon amaçlı içeriklerin belirlenmesi. Haberlerin güvenilirlik ve özgünlük açısından değerlendirilmesi.
GPT gibi dil modelleri tarafından üretilen metinlerin kalite, tutarlılık ve çeşitlilik açısından değerlendirilmesi.
Kullanıcıların daha özgün ve etkili metinler oluşturmasına yardımcı olan araçların geliştirilmesi (örn: stil önerileri, kelime çeşitliliği artırma).
Farklı dillerdeki metinlerin özgünlük açısından karşılaştırılabilir şekilde değerlendirilmesi için modeller geliştirme.
Sadece metin değil, metinle birlikte sunulan görüntü, video ve ses verilerinin de özgünlük analizine dahil edildiği çok modlu sistemler.
Yazma süreci sırasında (on-the-fly) anlık özgünlük geri bildirimi sağlayan ve intihal olasılığını gösteren sistemler.
Özgünlük puanlarının nedenlerini ve hangi faktörlerin bu puana nasıl etki ettiğini daha şeffaf bir şekilde açıklayan modeller.
Kullanıcının yazma stiline ve ihtiyaçlarına göre özelleştirilmiş, metinlerin özgünlüğünü artırmaya yönelik yapay zeka destekli öneriler sunan araçlar.
Sistemimiz, gelişmiş doğal dil işleme (NLP) teknikleri ve hesaplamalı dilbilim prensiplerini kullanarak metinlerin özgünlüğünü değerlendirir. Analiz süreci şu aşamalardan oluşur (bu adımlar arka plandaki Python betiğinde gerçekleşir):
Tokenizasyon ve Lemmatizasyon: SpaCy kütüphanesi kullanılarak metinler dilbilimsel birimlere ayrılır. Cümleler, kelimeler, kökler ve sözcük türleri (POS tagging) belirlenir.
Metriksel Normalizasyon (Örnekleme): Uzun metinlerde (>5000 kelime gibi bir eşik değer) sistematik örnekleme yapılarak başlangıç, orta ve son bölümlerden dengeli veri çıkarımı sağlanır. Bu, hesaplama süresini optimize ederken metnin genel karakteristiğini korumayı amaçlar.
Çok Dilli Destek: Öncelikle Türkçe (tr_core_news_md) için eğitilmiş dil modelleri kullanılır. Türkçe model bulunamazsa veya metin farklı bir dildeyse, İngilizce (en_core_web_md) modeline veya daha basit bir dil işleyiciye geri düşülür.
Geri Yedekleme Mekanizması: Gelişmiş SpaCy modelleri yüklenemediğinde, sistem daha temel tokenizasyon ve cümle bölme (SimpleNLP sınıfı veya NLTK gibi alternatifler) yöntemlerine geçerek çalışmaya devam etmeye çalışır.
len(set(words)) / len(words)sum(1 for freq in word_freq.values() if freq == 1) / len(words)rare_bigrams_count / total_bigrams_countlen(zlib.compress(text_bytes)) / len(text_bytes).sklearn.feature_extraction.text.TfidfVectorizer kullanılarak her belge için TF-IDF vektörleri oluşturulur.md veya lg serisi) kullanılıyorsa, belge vektörü bu kelime vektörlerinin ortalaması alınarak veya doğrudan doc.vector özelliği ile elde edilebilir. İki belge arasındaki benzerlik bu vektörler üzerinden doc1.similarity(doc2) ile veya manuel kosinüs benzerliği ile hesaplanır.Sistemimiz, belgeler arasındaki benzerliği değerlendirmek için birden fazla metrik kullanır ve bunları ağırlıklı bir şekilde birleştirir:
difflib.SequenceMatcher kullanarak iki metnin karakter veya kelime dizileri arasındaki en uzun ortak alt diziyi bularak benzerlik oranı hesaplar.1 - (Levenshtein Mesafesi / max_uzunluk) şeklinde normalize edilir. Sistemimizde bu da SequenceMatcher ile yaklaşık olarak hesaplanır.doc.vector) veya kelime vektörlerinin ortalamasıyla elde edilen vektörler arasındaki kosinüs benzerliği.Yukarıdaki farklı benzerlik metriklerinden elde edilen skorlar, her birinin gücüne ve ayırt ediciliğine göre belirlenmiş ağırlıklarla çarpılarak toplanır ve ardından toplam ağırlığa bölünerek nihai bir "ağırlıklı benzerlik" puanı elde edilir. Bu puan, belgeler arasındaki genel benzerliği daha kapsamlı bir şekilde yansıtır.
Her belgenin, analiz edilen tüm diğer belgelerle (ve eğer kullanılıyorsa referans derlemle) olan ortalama TF-IDF kosinüs benzerliği hesaplanır. Bu ortalama benzerliğin 1'den çıkarılmasıyla "derlem içi benzersizlik" puanı elde edilir ($1 - avg\_similarity$). Yüksek puan, belgenin derlemdeki diğerlerine göre daha farklı olduğunu gösterir.
LDA ile elde edilen konu dağılımının entropisi hesaplanır. Düşük entropi, belgenin belirli konulara daha net odaklandığını ve dolayısıyla konu açısından daha ayırt edici olduğunu gösterir. Bu da özgünlüğe katkıda bulunabilir ($1 - normalized\_entropy$).
Her belge için en yüksek TF-IDF skoruna sahip olan veya belgeye özgü olarak sık geçen (ancak tüm derlemde nadir olan) terimler belirlenir. Bu terimler, belgenin anahtar kelimelerini ve onu diğerlerinden ayıran ifadeleri temsil eder.
Belgeler, TF-IDF vektörleri kullanılarak K-Means algoritması ile içeriksel olarak benzer gruplara (kümelere) ayrılır. Bir belgenin bulunduğu kümenin boyutu ve yoğunluğu, o belgenin ne kadar yaygın bir içeriğe sahip olduğu hakkında fikir verebilir. Küçük veya seyrek bir kümede yer almak, potansiyel özgünlüğün bir göstergesi olabilir. Sistem, küme büyüklüğüne göre bir "küme benzersizliği" puanı hesaplar.
Nihai özgünlük puanı, yukarıda bahsedilen tüm özelliklerin (leksik çeşitlilik, nadir N-gram oranı, PMI skorları, derlem içi benzersizlik, konu ayırt ediciliği, küme benzersizliği, benzerlik analizinden elde edilen benzersizlik vb.) önceden tanımlanmış ağırlıklarla çarpılıp toplanması ve ardından toplam ağırlığa bölünmesiyle hesaplanır. Her özelliğin özgünlüğe katkısı farklı olabileceğinden bu ağırlıklandırma önemlidir. Örneğin, "benzerlik analizinden elde edilen benzersizlik" (yani, bir belgenin diğerlerine ne kadar az benzediği) genellikle yüksek bir ağırlığa sahiptir.
Eğer "uzunluk normalizasyonu" aktifse, bazı özellikler (örn: ham TTR, ham hapax oranı) metin uzunluğundaki değişimlere karşı daha dirençli hale getirilmiş versiyonlarıyla (örn: ayarlanmış leksik çeşitlilik, kayan pencere hapax oranı) veya logaritmik düzeltme faktörleriyle kullanılır. Eğer bu seçenek kapalıysa, nihai özgünlük puanına, kısa metinleri cezalandırmayan ve çok uzun metinlere aşırı avantaj sağlamayan genel bir uzunluk düzeltme faktörü uygulanabilir.
Çok sayıda belge analiz edilirken, özellik çıkarma gibi yoğun hesaplama gerektiren adımlar Python'un multiprocessing modülü kullanılarak paralel işlemcilerde çalıştırılabilir. Bu, özellikle CPU çekirdek sayısı fazla olan sistemlerde analiz süresini önemli ölçüde kısaltır.
Sistem, analiz sırasında oluşabilecek çeşitli hatalara (örn: eksik kütüphaneler, bozuk dosyalar, beklenmedik veri formatları) karşı dayanıklı olacak şekilde tasarlanmıştır. Örneğin, bir kütüphane (örn: spaCy) bulunamazsa, daha basit alternatifler (örn: temel metin işleme) devreye girer. Dosya okuma hatalarında veya belirli bir özellik hesaplanamazsa, bu özellik atlanır ve analiz diğer özelliklerle devam eder. Bu tür durumlar loglanır.
PMI, iki kelimenin ($x$ ve $y$) birlikte bulunma olasılığının ($P(x,y)$), bu kelimelerin bağımsız olarak bulunma olasılıklarının çarpımına ($P(x)P(y)$) oranının logaritması olarak hesaplanır. Bu, kelimeler arasındaki istatistiksel bağımlılığı ölçer.
Burada olasılıklar şu şekilde tahmin edilir:
Pozitif PMI (PPMI) değerleri genellikle daha anlamlı ilişkileri gösterir, bu yüzden bazen $max(0, PMI(x,y))$ kullanılır.
İki belge vektörü ($\vec{v_1}$ ve $\vec{v_2}$, genellikle TF-IDF veya gömme vektörleri) arasındaki açının kosinüsü olarak hesaplanır. Değer -1 (tamamen zıt) ile 1 (tamamen aynı) arasında değişir. 0, dik (ilişkisiz) anlamına gelir.
Burada:
Özgünlük puanı ($S_{orig}$), hesaplanan $k$ farklı özelliğin ($f_1, f_2, ..., f_k$) her birinin bir ağırlık ($w_i$) ile çarpılıp toplanması ve bu toplamın ağırlıklar toplamına bölünmesiyle elde edilir. Tüm özellik değerleri genellikle [0,1] aralığına normalize edilir.
Ağırlıklar ($w_i$), her bir özelliğin genel özgünlüğe ne kadar katkıda bulunduğuna dair uzman bilgisi veya deneysel ayarlamalarla belirlenir. Örnek ağırlıklar (sistemdeki betikten):
Bir belgenin $N_T$ farklı konuya ait olma olasılıkları $p_1, p_2, ..., p_{N_T}$ ise (LDA modelinden elde edilir, $\sum p_i = 1$), bu olasılık dağılımının Shannon entropisi ($H$) hesaplanır:
Burada $b$ genellikle 2 (bit cinsinden entropi) veya $e$ (nat cinsinden) veya $N_T$ (normalize entropi için) olabilir. $p_i=0$ ise $p_i \log(p_i)$ terimi 0 olarak alınır. Entropi, dağılımın belirsizliğini veya "düzlüğünü" ölçer. Yüksek entropi, belgenin birçok konuya eşit şekilde dağıldığını (konu odağının belirsiz olduğunu), düşük entropi ise belgenin az sayıda konuya net bir şekilde odaklandığını gösterir. Konu ayırt ediciliği genellikle $1 - H_{norm}$ olarak hesaplanır, burada $H_{norm} = \frac{H(P)}{\log_b(N_T)}$ normalize edilmiş entropidir ve [0,1] aralığındadır.
Arka plandaki analiz betiği, metinleri işlemek için (eğer yüklüyse) SpaCy kütüphanesini kullanır. SpaCy, bir dizi önceden eğitilmiş boru hattı (pipeline) sunar. Bu sistemde genellikle şu bileşenler kullanılır:
Kullanılan SpaCy modelleri (betikteki öncelik sırasına göre):
tr_core_news_md: Türkçe için orta boyutta, vektör içeren model. (Öncelikli)en_core_web_md: İngilizce için orta boyutta, vektör içeren model. (Türkçe model bulunamazsa veya farklı dilde metinler için yedek)English() sınıfı veya NLTK gibi alternatifler kullanılarak sadece tokenizasyon ve cümle bölme gibi temel işlemler yapılır.Her cümledeki kelimelerin sözcük türleri (NOUN-VERB-ADJ vb.) birleştirilerek bir kalıp oluşturulur (örn: "NOUN-VERB-NOUN-PUNCT"). Metindeki bu tür benzersiz kalıpların toplam kalıp sayısına oranı hesaplanır. Yüksek oran, yazarın çeşitli cümle yapıları kullandığını gösterebilir.
SpaCy'nin NER bileşeni tarafından tanınan toplam adlandırılmış varlık sayısının (kişi, yer, kurum vb.) metindeki toplam kelime sayısına oranıdır. Bazı metin türlerinde (örn: haberler, biyografiler) bu oranın yüksek olması doğaldır, ancak yazarın ne kadar spesifik bilgi kullandığına dair bir fikir verebilir.
N-gramlar, metindeki ardışık N kelimeden oluşan dizilerdir (örn: "çok güzel bir gün" -> bigramlar: "çok güzel", "güzel bir", "bir gün").
Konu modelleme, bir belge koleksiyonundaki gizli anlamsal yapıları (yani "konuları") keşfetmek için kullanılan istatistiksel bir yöntemdir. En yaygın algoritmalardan biri LDA'dır (Latent Dirichlet Allocation).
Özellikle çok sayıda belge analiz edilirken, her bir belge için özellik çıkarma işlemi bağımsız olarak yapılabilir. Python'un multiprocessing.Pool sınıfı kullanılarak bu işlemler birden fazla CPU çekirdeğine dağıtılır, bu da toplam analiz süresini önemli ölçüde azaltır. Arka plandaki analiz betiği, uygun koşullarda (yeterli belge sayısı ve CPU çekirdeği varsa) bu özelliği kullanır.
nlp(text[:MAX_CHARS_FOR_SPACY]) gibi bir sınırlama getirilebilir. Arka plan betiği, SpaCy'nin nlp.max_length özelliğini dikkate alır veya kendi sınırlarını uygular.Sistem, çeşitli hata durumlarına karşı dayanıklıdır:
Metin özgünlük analizi karmaşık bir problemdir ve %100 kesinlik sağlamak mümkün değildir. Bu sistem, mevcut en iyi uygulamaları ve çeşitli metrikleri kullanarak kapsamlı bir değerlendirme sunmayı amaçlar. Ancak, sonuçların yorumlanmasında dikkatli olunmalıdır:
Bu sistem, bir metnin potansiyel özgünlük seviyesi hakkında güçlü bir gösterge sunar ve farklı metinleri karşılaştırmak için yararlı bir araçtır. Nihai karar ve yorum her zaman insan uzmanlığına dayanmalıdır.