Makine öğrenimi

Makine öğrenimi (ML), veriden öğrenebilen ve görünmeyen verilere genelleştirebilen ve dolayısıyla açık talimatlar olmadan görevleri yerine getirebilen istatistiksel algoritmaların geliştirilmesi ve incelenmesiyle ilgilenen, yapay zekâda akademik bir disiplindir.[1] Makine öğrenimi, bilgisayarların deneyimlerinden öğrenerek karmaşık görevleri otomatikleştirmeyi sağlayan bir yapay zeka alanıdır. Bu, veri analizi yaparak örüntüler tespit etme ve tahminlerde bulunma yeteneğine dayanır. Son zamanlarda yapay sinir ağları, performans açısından önceki birçok yaklaşımı geride bırakmayı başardı.[2][3]

Makine öğrenimi yaklaşımları, doğal dil işleme, bilgisayar görüşü, konuşma tanıma, e-posta filtreleme, tarım ve tıp dahil olmak üzere birçok alana uygulanmıştır.[4][5] Bu teknikler, genellikle tahmine dayalı analitik olarak tanımlanan iş sorunlarına yönelik uygulamalarda önemli bir rol oynamaktadır. ML, iş sorunlarına yönelik uygulamasında tahmine dayalı analitik denir. Makine öğreniminin tümü istatistiksel temelli olmasa da, hesaplamalı istatistiksel yöntemlerinin önemli bir kaynağıdır.

ML'nin matematiksel temelleri matematiksel optimizasyon (matematiksel programlama) yöntemleriyle sağlanır. Veri madenciliği, gözetimsiz öğrenme yoluyla keşifsel veri analizine (EDA) odaklanan ilgili (paralel) bir bilim dalıdır.[7][8]

Teorik bir bakış açısından bakıldığında, muhtemelen yüksek olasılıklı doğru (PAC) öğrenme, makine öğrenimini tanımlamak için bir çerçeve sağlar.

Makine öğrenimi araştırmalarının odaklandığı konu bilgisayarlara karmaşık örüntüleri algılama ve veriye dayalı akılcı kararlar verebilme becerisi kazandırmaktır. Bu, makine öğreniminin istatistik, olasılık kuramı, veri madenciliği, örüntü tanıma, yapay zekâ, uyarlamalı denetim ve kuramsal bilgisayar bilimi gibi alanlarla yakından ilintili olduğunu gösterir.

Makine öğrenimi, bilgisayarların, açıkça programlanmadan karmaşık görevleri otomatikleştirmeyi öğrenmelerini sağlar. Belirli görevleri yerine getirmeleri için sağlanan verilerdeki örüntüleri ve ilişkileri keşfederek bu örüntüleri yeni durumlara uygulama yeteneği kazandırır. Bilgisayarlara atanan basit görevler için, makineye eldeki sorunu çözmek için gereken tüm adımları nasıl uygulayacağını bildiren algoritmalar programlamak mümkündür; bilgisayar tarafında öğrenmeye gerek yoktur. Daha gelişmiş görevlerde insan için gerekli algoritmaları elle yapmak zor olabilir. Uygulamada, insan programcıların gerekli her adımı belirlemesinden ziyade, makinenin kendi algoritmasını geliştirmesine yardımcı olmak daha etkili olabilir.[9]

Makine öğrenimi disiplini, bilgisayarlara tam olarak tatmin edici bir algoritmanın bulunmadığı görevleri gerçekleştirmeyi öğretmek için çeşitli yaklaşımlar kullanır. Çok sayıda olası yanıtın olduğu durumlarda, doğru yanıtlardan bazılarını geçerli olarak etiketlemek bir yaklaşımdır. Bu, daha sonra bilgisayarın doğru yanıtları bulmak için kullandığı algoritmayı/algoritmaları geliştirmede eğitim verisi olarak kullanılabilir. Örneğin, sayısal karakter tanıma görevinde sistemi eğitmek için el yazısıyla yazılmış rakamların MNIST veri kümesi sıklıkla kullanılır.[9]

Makine öğrenimi terimi 1959'da bilgisayar oyunları ve yapay zeka alanında öncü ve IBM çalışanı olan Amerikalı Arthur Samuel tarafından icat edildi.[10][11] 1960'larda makine öğrenimi araştırmasının temsili bir kitabı, Nilsson'un Öğrenme Makineleri hakkındaki kitabıydı ve çoğunlukla örüntü sınıflandırması için makine öğrenimi ile ilgiliydi.[12] Model tanıma ile ilgili ilgi, 1973'te Duda ve Hart tarafından tanımlandığı gibi 1970'lerde de devam etti.[13]

1981'de, bir sinir ağı 'nın bilgisayar terminalinden 40 karakteri (26 harf, 10 rakam ve 4 özel sembol) tanımayı öğrenmesi için öğretme stratejilerinin kullanımına ilişkin bir rapor verildi.[14]

Tom M. Mitchell, makine öğrenimi alanında incelenen algoritmaların geniş ölçüde alıntılanan daha resmi bir tanımını yaptı: "Bir bilgisayar programının performans ölçüsü "P" ve bazı "T" görev sınıflarıyla ilgili olarak "T" görevlerindeki performansı "E" deneyimiyle iyileşiyorsa "P" ile ölçüldüğü gibi E deneyiminden öğrendiği söylenir.[15]

Makine öğreniminin söz konusu olduğu görevlerin bu tanımı, alanı bilişsel terimlerle tanımlamak yerine temelde operasyonel tanım sunar. Bu, Alan Turing'in "Computing Machinery and Intelligence" adlı makalesinde "Makineler düşünebilir mi?" "Makineler bizim (düşünen varlıklar olarak) yapabildiğimizi yapabilir mi?" sorusuyla değiştirilir.[16]

Günümüzün modern makine öğreniminin iki amacı vardır, biri verileri geliştirilen modellere göre sınıflandırmak, diğer amaç ise bu modellere dayalı olarak gelecekteki sonuçlar için tahminler yapmaktır. Verileri sınıflandırmaya özgü varsayımsal bir algoritma, kanserli benleri sınıflandırmada onu eğitmek için denetimli öğrenmeyle birleştirilen mollerin bilgisayar görüşü kullanabilir. Hal böyle olunca, hisse senedi ticareti için makine öğrenme algoritması, tüccara gelecekteki olası tahminler hakkında bilgi verebilir.[17]

Diğer alanlarla ilişkiler

[değiştir | kaynağı değiştir]
Yapay Zekanın (AI) alt alanı olarak Makine Öğrenimi[18]
Yapay Zekanın alt alanı olarak Makine Öğreniminin bir parçası veya Makine Öğreniminin alt alanı olarak YZ'nin bir parçası[19]

Bilimsel bir çaba olarak makine öğrenimi, yapay zeka arayışından doğdu. Yapay zekanın akademik disiplin olarak ilk günlerinde bazı araştırmacılar makinelerin verilerden öğrenmesini sağlamakla ilgileniyordu. Soruna çeşitli sembolik yöntemlerle ve daha sonra "sinir ağları" denilen yöntemlerle yaklaşmaya çalıştılar; bunlar çoğunlukla perceptronlar ve diğer modellerdi daha sonra istatistiklerin genelleştirilmiş doğrusal modellerin yeniden icatları oldukları anlaşıldı.[20]

Olasılık muhakeme de özellikle otomatik tıbbi tanı için kullanıldı.[21]:488 Ancak, mantıksal, bilgiye dayalı yaklaşım üzerindeki artan vurgu, yapay zeka ile makine öğrenimi arasında bir sürtüşmeye neden oldu. Olasılıklı sistemler, veri toplama ve gösteriminin teorik ve pratik problemleriyle boğuşuyordu.[21]:488

1980 yılına gelindiğinde, uzman sistemler yapay zekaya hâkim oldu ve istatistik gözden düştü.[22]

Sembolik/bilgiye dayalı öğrenme üzerine çalışmalar AI içinde devam etti ve endüktif mantık programlama'ya yol açtı ancak daha istatistiksel araştırma hattı artık örüntü tanıma da ve bilgi erişimdeydi.[21]:708–710; 755

Sinir ağları araştırması, yapay zeka ve bilgisayar bilimi tarafından aynı zamanlarda terk edildi. Bu çizgi de diğer disiplinlerden John Hopfield, Rumelhart ve Hinton‘i içeren araştırmacılar tarafından AI/CS alanının dışında "bağlantısallık" olarak devam ettirildi. Ana başarıları, 1980'lerin ortasında geri yayılımın yeniden buluşuyla ortaya çıktı.[21]:25

Ayrı bir alan olarak yeniden düzenlenen makine öğrenimi (ML), 1990'larda gelişmeye başladı. Alan, amacını yapay zeka elde etmekten ziyade pratik nitelikteki çözülebilir problemlerle mücadele etmek olarak değiştirdi. Odağı, AI'dan miras aldığı sembolik yaklaşımlar'dan, istatistik ve olasılık teorisi’nden ödünç alınan yöntem ve modellere kaydırdı.[22]

2020 itibarıyla birçok kaynak, makine öğreniminin yapay zekanın bir alt alanı olmaya devam ettiğini iddiasını sürdürüyor.[18][23][24]

Ana anlaşmazlık, tüm makine öğreniminin Yapay zeka(YZ)'nın (AI) bir parçası olup olmadığıdır çünkü bu, makine öğrenimini kullanan herhangi birinin YZ kullandığını iddia edebileceği anlamına gelir. Diğerlerinin görüşü, tüm makine öğreniminin yapay zekanın bir parçası olmadığıdır[25][26][27] ki burada, makine öğreniminin yalnızca 'akıllı' bir alt kümesi YZ'nin bir parçasıdır.[28]

Makine öğrenimi ve yapay zeka arasındaki farkın ne olduğu sorusu, "The Book of Why" adlı kitabında Judea Pearl tarafından yanıtlanır.[29] Buna göre, makine öğrenimi pasif gözlemlere dayanarak öğrenir ve tahmin eder, oysa AI, hedeflerine başarılı bir şekilde ulaşma şansını en üst düzeye çıkaran eylemleri öğrenmek ve gerçekleştirmek için çevre ile etkileşime giren aracı ifade eder.[32]

Veri sıkıştırma

[değiştir | kaynağı değiştir]

Makine öğrenimi ile sıkıştırma arasında yakın bir bağlantı vardır. Tüm geçmişi göz önüne alındığında bir dizinin sonsal olasılıklarını tahmin eden bir sistem, optimum veri sıkıştırması için (çıkış dağılımında aritmetik kodlama kullanılarak) kullanılabilir. Tersine, tahmin için en uygun sıkıştırıcı (önceki geçmiş göz önüne alındığında en iyi sıkıştıran sembolü bularak) kullanılabilir. Bu eşdeğerlik, veri sıkıştırmanın "genel zeka" için ölçüt olarak kullanılmasının gerekçesi olarak kullanılmıştır.[33][34][35]

Alternatif bir görünüm, sıkıştırma algoritmalarının dizeleri örtülü özellik alanı vektörlerine örtülü olarak eşlediğini gösterebilir ve sıkıştırmaya dayalı benzerlik ölçümleri, bu özellik alanlarındaki benzerliği hesaplar. Her sıkıştırıcı C(.) için ilişkili bir vektör uzayı ℵ tanımlarız, öyle ki C(.), ||~x|| vektör normuna karşılık gelen giriş dizesi x'i eşler. Tüm sıkıştırma algoritmalarının altında yatan özellik uzaylarının kapsamlı incelemesi uzay nedeniyle engellenir; bunun yerine, özellik vektörleri üç temsili kayıpsız sıkıştırma yöntemini yani LZW, LZ77 ve PPM'yi incelemeyi seçer.[36]

Hutter Ödülü'nde daha doğrudan açıklanan bir bağlantı olan AIXI teorisine göre, x'in mümkün olan en iyi sıkıştırılması, x'i üreten mümkün olan en küçük yazılımdır. Örneğin, bu modelde bir zip dosyasının sıkıştırılmış boyutu hem zip dosyasını hem de zip açma yazılımını içerir. Çünkü her ikisi olmadan zip dosyasını açamazsınız ancak daha da küçük birleştirilmiş bir form olabilir.

Yapay zeka destekli ses/video sıkıştırma yazılımı örnekleri olarak VP9, NVIDIA Maxine, AIVC, AccMPEG sayılabilir.[37] Yapay zeka destekli görüntü sıkıştırma gerçekleştirebilen yazılımına OpenCV, TensorFlow, MATLAB'ın Image Processing Toolbox (IPT) ve High-Fidelity Generative Image Compression örnek olarak verilebilir.[38]

Denetimsiz makine öğreniminde, benzer veri noktalarını kümeler halinde gruplandırarak verileri sıkıştırmak için k-ortalama kümelemesi kullanılabilir. Bu teknik, önceden tanımlanmış etiketlerin bulunmadığı kapsamlı veri kümelerinin işlenmesini basitleştirir ve görüntü sıkıştırma gibi alanlarda çok kullanılır.[39]

Geniş dil modelleri aynı zamanda kayıpsız veri sıkıştırma özelliğiklidir.[40]

Veri madenciliği

[değiştir | kaynağı değiştir]

Makine öğrenimi ve veri madenciliği sıklıkla aynı yöntemleri kullanır ve önemli ölçüde örtüşür, ancak makine öğrenimi, eğitim verilerinden öğrenilen bilinen özelliklere dayalı olarak tahmine odaklanırken, veri madenciliği verilerdeki (daha önce) bilinmeyen özelliklerin keşfedilmesine odaklanır (bu, veritabanlarında bilgi keşfinin analiz adımıdır). Veri madenciliği farklı amaçlarla birçok makine öğrenimi yöntemini kullanır. Öte yandan makine öğrenimi, "denetimsiz öğrenme" olarak veya öğrenen doğruluğunu artırmak için bir ön işleme adımı olarak veri madenciliği yöntemlerini de kullanır. Bu iki araştırma topluluğu (çoğunlukla ayrı konferansları ve ayrı dergileri olan, ECML PKDD önemli bir istisnadır) arasındaki kafa karışıklığının büyük kısmı, birlikte çalıştıkları temel varsayımlardan kaynaklanmaktadır: Makine öğreniminde performans genellikle bilinen bilgiyi yeniden üretme becerisine göre değerlendirilirken, bilgi keşfi ve veri madenciliği (KDD)'de temel görev önceden bilinmeyen bilginin keşfidir. Bilinen bilgilere göre değerlendirildiğinde, bilgi verilmeyen (denetlenmeyen) bir yöntem, diğer denetlenen yöntemlere göre kolayca daha iyi performans gösterecektir, oysa tipik bir KDD görevinde, eğitim verilerinin mevcut olmaması nedeniyle denetlenen yöntemler kullanılamaz.

Makine öğreniminin optimizasyonla da yakın bağları vardır: birçok öğrenme problemi, eğitim set örneklerinde bazı kayıp fonksiyonların en aza indirilmesi olarak formülleştirilir. Kayıp fonksiyonları, eğitilen modelin tahminleri ile gerçek problem örnekleri arasındaki tutarsızlığı ifade eder (örneğin, sınıflandırmada örneklere bir etiket atamak istenir ve modeller, bir dizi örnek için önceden atanmış etiketleri doğru şekilde tahmin edecek şekilde eğitilir).[41]

Optimizasyon ve makine öğrenimi arasındaki fark, genelleştirme hedefinden kaynaklanır: Optimizasyon algoritmaları bir eğitim setindeki kaybı en aza indirebilirken, makine öğrenimi, görünmeyen örneklerdeki kaybı en aza indirmekle ilgilenir. Çeşitli öğrenme algoritmalarının genelleştirilmesinin karakterize edilmesi, özellikle derin öğrenme algoritmaları için güncel araştırmaların aktif bir konusudur.

Makine öğrenimi ve istatistik, yöntemler açısından birbiriyle yakından ilişkili alanlardır ancak temel hedefleri bakımından farklıdır: istatistik bir örnekten nüfus çıkarımları yaparken, makine öğrenimi genelleştirilebilir tahmin kalıpları bulur.[42] Michael I. Jordan'a göre, metodolojik ilkelerden teorik araçlara kadar makine öğrenimi fikirlerinin istatistik alanında uzun bir geçmişi vardır.[43] Ayrıca genel alanı adlandırmak için veri bilimi terimini yer tutucu olarak önerdi.[43]

Geleneksel istatistiksel analizler, çalışma veri seti için en uygun modelin önsel seçimini gerektirir. Ayrıca analize yalnızca önceki deneyimlere dayanan önemli veya teorik olarak ilgili değişkenler dahil edilir. Bunun aksine, makine öğrenimi önceden yapılandırılmış bir model üzerine kurulmamıştır; bunun yerine veriler, altta yatan kalıpları tespit ederek modeli şekillendirir. Modeli eğitmek için ne kadar çok değişken (girdi) kullanılırsa nihai model o kadar doğru olur.[44]

Leo Breiman iki istatistiksel modelleme paradigmasını birbirinden ayırdı: veri modeli ve algoritmik model,[45]; burada "algoritmik model", Rastgele orman gibi az çok makine öğrenimi algoritmaları anlamına gelir.

Bazı istatistikçiler, makine öğreniminden yöntemleri benimseyerek istatistiksel öğrenme adını verdikleri birleşik bir alana yol açtılar.[46]

İstatistiksel fizik

[değiştir | kaynağı değiştir]

Düzensiz sistemlerin köklü fiziğinden türetilen analitik ve hesaplamalı teknikler, örneğin derin sinir ağ'larının ağırlık uzayını analiz etmek için makine öğrenimi de dahil olmak üzere büyük ölçekli sorunlara genişletilebilir.[47] İstatistiksel fizik bu nedenle tıbbi teşhis alanında da uygulama alanları bulmaktadır.[48]

Bir öğrencinin temel amacı, deneyiminden genelleme yapmaktır.[6][49] Bu bağlamda genelleme, öğrenen bir makinenin, bir öğrenme veri kümesini deneyimledikten sonra yeni, görülmemiş örnekler/görevler üzerinde doğru bir şekilde performans gösterme yeteneğidir. Eğitim örnekleri, genel olarak bilinmeyen bazı olasılık dağılımlarından gelir (oluşma uzayını temsil ettiği kabul edilir) ve öğrencinin, yeni durumlarda yeterince doğru tahminler üretmesini sağlayan bu alan hakkında genel bir model oluşturması gerekir. Bu bağlamda genelleme, öğrenen bir makinenin, bir öğrenme veri kümesini deneyimledikten sonra yeni, görülmemiş örnekler/görevler üzerinde doğru şekilde performans gösterme yeteneğidir. Eğitim örnekleri, genel olarak bilinmeyen bazı olasılık dağılımlarından gelir (oluşma uzayını temsil ettiği kabul edilir) ve öğrencinin, yeni durumlarda yeterince doğru tahminler üretmesini sağlayan bu alan hakkında genel bir model oluşturması gerekir.

Makine öğrenimi algoritmalarının ve performanslarının hesaplamalı analizi, Yüksek Olasılıklı Doğru Öğrenme (PAC) modeli aracılığıyla hesaplamalı öğrenme teorisi olarak bilinen teorik bilgisayar biliminin bir dalıdır. Eğitim kümeleri sınırlı olduğundan ve gelecek belirsiz olduğundan, öğrenme teorisi genellikle algoritmaların performansına dair garanti vermez. Bunun yerine performansa ilişkin olasılıksal sınırlar oldukça yaygındır. Önyargı-varyans ayrıştırması, genelleme hatasını ölçmenin bir yoludur.

Genelleme bağlamında en iyi performansı elde etmek için hipotezin karmaşıklığı, verilerin altında yatan işlevin karmaşıklığıyla eşleşmelidir. Hipotezin fonksiyondan daha az karmaşık olması durumunda model, verilere gereğinden az uyum sağlamıştır. Yanıt olarak modelin karmaşıklığı artarsa eğitim hatası azalır. Ancak hipotez çok karmaşıksa, model aşırı uyumdan etkilenir ve genelleme daha zayıf olur.[50]

Performans sınırlarına ek olarak, öğrenme teorisyenleri öğrenmenin zaman karmaşıklığını ve fizibilitesini de inceler. Hesaplamalı öğrenme teorisinde, bir hesaplamanın polinom zamanında yapılması mümkünse mümkün olduğu kabul edilir. İki tür zaman karmaşıklık sonucu vardır: Pozitif sonuçlar, belirli bir fonksiyon sınıfının polinom zamanda öğrenilebileceğini gösterir. Negatif sonuçlar bazı sınıfların polinom zamanında öğrenilemeyeceğini göstermektedir.

Makine öğreniminin başlıca uygulamaları makine algılaması, bilgisayarlı görme, doğal dil işleme, sözdizimsel örüntü tanıma, arama motorları, tıbbi tanı, biyoinformatik, beyin-makine arayüzleri ve kiminformatik, kredi kartı dolandırıcılığı denetimi, borsa çözümlemesi, DNA dizilerinin sınıflandırılması, konuşma ve elyazısı tanıma, bilgisayarlı görmede nesne tanıma, oyun oynama, yazılım mühendisliği, uyarlamalı web siteleri ve robot gezisidir.

İnsan etkileşimi

[değiştir | kaynağı değiştir]

Makine öğrenimi sistemlerinin bir bölümü insan sezgisine olan gereksinimi tümüyle ortadan kaldırmaya çalışırken bazıları insan ve makine arasında işbirliğine dayalı bir yaklaşım benimsemektedir. Ne var ki, sistemi tasarlayan kişinin verinin kodlanma biçimi üzerinde tümüyle egemen oluşu insan sezgisinin tümüyle ortadan kaldırılmasını olanaksızlaştırmaktadır. Makine öğrenimi deneysel yöntemin otomatikleştirilmesi çabası olarak görülmektedir.[kaynak belirtilmeli]

Bazı istatistiksel makine öğrenimi araştırmacıları Bayes istatistiği çerçevesi kapsamında kullanılabilen yöntemler geliştirmektedirler.

Öğrenme yaklaşımları

[değiştir | kaynağı değiştir]

Makine öğrenimi algoritmaları hedeflenen sonuca göre birkaç sınıfa ayrılabilmektedir:[51]

  • Gözetimli öğrenme - Gözetimli öğrenme, bilgisayarların etiketlenmiş örnek verilerden öğrenme yeteneğini içerir. Bu yaklaşım, her örneğin bir girdi ve ona karşılık gelen bir çıktıya sahip olduğu durumlar için idealdir. Örneğin, bir görüntünün üzerindeki nesnelerin tanımlanması gibi bir problemde, etiketlenmiş veri setleri kullanılır. Makine, bu veri setlerini analiz ederek girdileri çıktılara eşleme yeteneğini geliştirir.
  • Gözetimsiz öğrenme - Gözetimsiz öğrenme, bilgisayarların etiketlenmemiş verilerden örüntüleri keşfetme yeteneğini içerir. Bu yaklaşım, verilerdeki yapıları anlamak ve veri setlerindeki gizli ilişkileri keşfetmek için kullanılır. Örneğin, bir pazarlama analizi yapılırken, müşteri segmentlerini belirlemek için gözetimsiz öğrenme teknikleri kullanılabilir. Bu sayede, belirli bir önceden tanımlanmış etikete gerek kalmadan veri setindeki doğal gruplamaları keşfedebiliriz.
  • Pekiştirmeli öğrenme - Pekiştirmeli öğrenme, bir ajanın çevresiyle etkileşime girerek deneme-yanılma yoluyla optimal davranışı öğrenme yeteneğini içerir. Bu yaklaşım genellikle karar alma ve kontrol problemleri için kullanılır. Ajan, bir ortamda belirli eylemler gerçekleştirir ve bu eylemlerin sonuçlarına göre ödüller veya cezalar alır. Bu ödüller ve cezalar, ajanın davranışını optimize etmesine yardımcı olur. Örneğin, bir robotun belirli bir ortamda dengede kalmasını öğrenmesi veya bir oyun oynarken en yüksek skoru elde etmesi için pekiştirmeli öğrenme kullanılabilir.
  • Yarı gözetimli öğrenme - Uygun işlev ya da sınıflandırıcılar oluşturmak için etiketli ve etiketsiz örnekleri birlikte ele alır.
  • Öğrenmeyi öğrenme - Önceki deneyimlerden yararlanır. [kaynak belirtilmeli]

Ayrıca bakınız

[değiştir | kaynağı değiştir]
  1. ^ The definition "without being explicitly programmed" is often attributed to Arthur Samuel, who coined the term "machine learning" in 1959, but the phrase is not found verbatim in this publication, and may be a paraphrase that appeared later. Confer "Paraphrasing Arthur Samuel (1959), the question is: How can computers learn to solve problems without being explicitly programmed?" in Koza, John R.; Bennett, Forrest H.; Andre, David; Keane, Martin A. (1996). "Automated Design of Both the Topology and Sizing of Analog Electrical Circuits Using Genetic Programming". Artificial Intelligence in Design '96. Artificial Intelligence in Design '96 (İngilizce). Springer, Dordrecht. ss. 151-170. doi:10.1007/978-94-009-0279-4_9. ISBN 978-94-010-6610-5. 
  2. ^ "What is Machine Learning?". IBM (İngilizce). 27 Aralık 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Haziran 2023. 
  3. ^ Zhou, Victor (20 Aralık 2019). "Machine Learning for Beginners: An Introduction to Neural Networks". Medium (İngilizce). 9 Mart 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 15 Ağustos 2021. 
  4. ^ Hu, Junyan; Niu, Hanlin; Carrasco, Joaquin; Lennox, Barry; Arvin, Farshad (2020). "Voronoi-Based Multi-Robot Autonomous Exploration in Unknown Environments via Deep Reinforcement Learning". IEEE Transactions on Vehicular Technology. 69 (12): 14413-14423. doi:10.1109/tvt.2020.3034800. ISSN 0018-9545. 
  5. ^ Yoosefzadeh-Najafabadi, Mohsen; Hugh, Earl; Tulpan, Dan; Sulik, John; Eskandari, Milad (2021). "Application of Machine Learning Algorithms in Plant Breeding: Predicting Yield From Hyperspectral Reflectance in Soybean?". Front. Plant Sci. 11: 624273. doi:10.3389/fpls.2020.624273. PMC 7835636 $2. PMID 33510761. 
  6. ^ a b Bishop, C. M. (2006), Pattern Recognition and Machine Learning, Springer, ISBN 978-0-387-31073-2 
  7. ^ Machine learning and pattern recognition "can be viewed as two facets of the same field".[6]:vii
  8. ^ Friedman, Jerome H. (1998). "Data Mining and Statistics: What's the connection?". Computing Science and Statistics. 29 (1): 3-9. 
  9. ^ a b Ethem Alpaydin (2020). Introduction to Machine Learning (Fourth bas.). MIT. ss. xix, 1-3, 13-18. ISBN 978-0262043793. 
  10. ^ Samuel, Arthur (1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. 3 (3): 210-229. CiteSeerX 10.1.1.368.2254 $2. doi:10.1147/rd.33.0210. 
  11. ^ R. Kohavi and F. Provost, "Glossary of terms," Machine Learning, vol. 30, no. 2–3, pp. 271–274, 1998.
  12. ^ Nilsson N. Learning Machines, McGraw Hill, 1965.
  13. ^ Duda, R., Hart P. Pattern Recognition and Scene Analysis, Wiley Interscience, 1973
  14. ^ S. Bozinovski "Teaching space: A representation concept for adaptive pattern classification" COINS Technical Report No. 81-28, Computer and Information Science Department, University of Massachusetts at Amherst, MA, 1981. https://web.cs.umass.edu/publication/docs/1981/UM-CS-1981-028.pdf 25 Şubat 2021 tarihinde Wayback Machine sitesinde arşivlendi.
  15. ^ Mitchell, T. (1997). Machine Learning. McGraw Hill. ss. 2. ISBN 978-0-07-042807-2. 
  16. ^ Harnad, Stevan (2008), "The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence", Epstein, Robert; Peters, Grace (Ed.), The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Kluwer, ss. 23-66, ISBN 9781402067082 
  17. ^ "Introduction to AI Part 1". Edzion (İngilizce). 8 Aralık 2020. 18 Şubat 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 9 Aralık 2020. 
  18. ^ a b "AN EMPIRICAL SCIENCE RESEARCH ON BIOINFORMATICS IN MACHINE LEARNING – Journal". 10 Aralık 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  19. ^ "rasbt/stat453-deep-learning-ss20" (PDF). GitHub (İngilizce). 11 Haziran 2021 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 21 Nisan 2021. 
  20. ^ Şablon:Cite citeseerx
  21. ^ a b c d Şablon:Cite AIMA
  22. ^ a b Langley, Pat (2011). "The changing science of machine learning". Machine Learning. 82 (3): 275-279. doi:10.1007/s10994-011-5242-yÖzgürce erişilebilir. 
  23. ^ Garbade, Dr Michael J. (14 Eylül 2018). "Clearing the Confusion: AI vs Machine Learning vs Deep Learning Differences". Medium (İngilizce). 16 Eylül 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  24. ^ "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the Difference?". www.ibm.com (İngilizce). 1 Kasım 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  25. ^ "Chapter 1: Introduction to Machine Learning and Deep Learning". Dr. Sebastian Raschka. 5 Ağustos 2020. 28 Eylül 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  26. ^ August 2011, Dovel Technologies in (15 Mayıs 2018). "Not all Machine Learning is Artificial Intelligence". CTOvision.com. 30 Mart 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  27. ^ "AI Today Podcast #30: Interview with MIT Professor Luis Perez-Breva -- Contrary Perspectives on AI and ML". Cognilytica. 28 Mart 2018. 26 Haziran 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  28. ^ "rasbt/stat453-deep-learning-ss20" (PDF). GitHub (İngilizce). 11 Haziran 2021 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 28 Ekim 2020. 
  29. ^ Pearl, Judea; Mackenzie, Dana. The Book of Why: The New Science of Cause and Effect (2018 bas.). Basic Books. ISBN 9780465097609. 4 Kasım 2020 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Ekim 2020. 
  30. ^ Poole, Mackworth & Goebel 1998, p. 1.
  31. ^ Russell & Norvig 2003, s. 55.
  32. ^ Definition of AI as the study of intelligent agents: * Poole, Mackworth & Goebel (1998), which provides the version that is used in this article. These authors use the term "computational intelligence" as a synonym for artificial intelligence.[30] * Russell & Norvig (2003) (who prefer the term "rational agent") and write "The whole-agent view is now widely accepted in the field".[31] * Nilsson 1998 * Legg & Hutter 2007
  33. ^ Mahoney, Matt. "Rationale for a Large Text Compression Benchmark". Florida Institute of Technology. 18 Ağustos 2006 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Mart 2013. 
  34. ^ Shmilovici A.; Kahiri Y.; Ben-Gal I.; Hauser S. (2009). "Measuring the Efficiency of the Intraday Forex Market with a Universal Data Compression Algorithm" (PDF). Computational Economics. 33 (2): 131-154. CiteSeerX 10.1.1.627.3751 $2. doi:10.1007/s10614-008-9153-3. 9 Temmuz 2009 tarihinde kaynağından arşivlendi (PDF). 
  35. ^ I. Ben-Gal (2008). "On the Use of Data Compression Measures to Analyze Robust Designs" (PDF). IEEE Transactions on Reliability. 54 (3): 381-388. doi:10.1109/TR.2005.853280. 26 Eylül 2020 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 11 Mart 2024. 
  36. ^ D. Scully; Carla E. Brodley (2006). "Compression and Machine Learning: A New Perspective on Feature Space Vectors". Data Compression Conference (DCC'06). s. 332. doi:10.1109/DCC.2006.13. ISBN 0-7695-2545-8. 
  37. ^ Gary Adcock (5 Ocak 2023). "What Is AI Video Compression?". massive.io. 6 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Nisan 2023. 
  38. ^ Gilad David Maayan (24 Kasım 2021). "AI-Based Image Compression: The State of the Art". Towards Data Science. 25 Kasım 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 6 Nisan 2023. 
  39. ^ "What is Unsupervised Learning? | IBM". www.ibm.com (İngilizce). 5 Şubat 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Şubat 2024. 
  40. ^ Edwards, Benj (28 Eylül 2023). "AI language models can exceed PNG and FLAC in lossless compression, says study". Ars Technica (İngilizce). 7 Mart 2024 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mart 2024. 
  41. ^ Le Roux, Nicolas; Bengio, Yoshua; Fitzgibbon, Andrew (2012). "Improving First and Second-Order Methods by Modeling Uncertainty". Sra, Suvrit; Nowozin, Sebastian; Wright, Stephen J. (Ed.). Optimization for Machine Learning. MIT Press. s. 404. ISBN 9780262016469. 17 Ocak 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Kasım 2020. 
  42. ^ Bzdok, Danilo; Altman, Naomi; Krzywinski, Martin (2018). "Statistics versus Machine Learning". Nature Methods. 15 (4): 233-234. doi:10.1038/nmeth.4642. PMC 6082636 $2. PMID 30100822. 
  43. ^ a b Michael I. Jordan (10 Eylül 2014). "statistics and machine learning". reddit. 18 Ekim 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 1 Ekim 2014. 
  44. ^ Hung et al. Algorithms to Measure Surgeon Performance and Anticipate Clinical Outcomes in Robotic Surgery. JAMA Surg. 2018
  45. ^ Cornell University Library (Ağustos 2001). "Breiman: Statistical Modeling: The Two Cultures (with comments and a rejoinder by the author)". Statistical Science. 16 (3). doi:10.1214/ss/1009213726. 26 Haziran 2017 tarihinde kaynağından arşivlendi. Erişim tarihi: 8 Ağustos 2015. 
  46. ^ Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). An Introduction to Statistical Learning. Springer. s. vii. 23 Haziran 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 25 Ekim 2014. 
  47. ^ Ramezanpour, A.; Beam, A.L.; Chen, J.H.; Mashaghi, A. (17 Kasım 2020). "Statistical Physics for Medical Diagnostics: Learning, Inference, and Optimization Algorithms". Diagnostics. 10 (11): 972. doi:10.3390/diagnostics10110972. PMC 7699346 $2. PMID 33228143. 
  48. ^ Mashaghi, A.; Ramezanpour, A. (16 Mart 2018). "Statistical physics of medical diagnostics: Study of a probabilistic model". Physical Review E. 97 (3–1): 032118. arXiv:1803.10019 $2. Bibcode:2018PhRvE..97c2118M. doi:10.1103/PhysRevE.97.032118. PMID 29776109. 
  49. ^ Şablon:Cite Mehryar Afshin Ameet 2012
  50. ^ Alpaydin, Ethem (2010). Introduction to Machine Learning. Londra: The MIT Press. ISBN 978-0-262-01243-0. Erişim tarihi: 4 Şubat 2017. 
  51. ^ Stuart Russel; Peter Norvig (2003) [1995]. Artificial Intelligence: A Modern Approach (2. bas.). Prentice Hall. ISBN 978-0137903955. OCLC 359890490. 

Konuyla ilgili yayınlar

[değiştir | kaynağı değiştir]

Dış bağlantılar

[değiştir | kaynağı değiştir]