Ersin Bozkurt
Kayıtlı Üye
- Katılım
- 1 Nisan 2014
- Sertifika
- A Sınıfı
- Firma
- Makina muhendisi
Dünya şu anda yapay zekanın dar seviyesinde ,üç seviye var : dar (ANI ),genel ( AGI ) ,super (ASI )
Şu anda yapay zekâ (AI) araştırma ve uygulamaları Dar Yapay Zeka seviyesindedir Bu, belirli görevlerde son derece iyi performans gösteren, ancak insan düzeyinde genel bir anlayış veya bilinç göstermeyen bir yapay zekâdır.
ANI (Artificial Narrow Intelligence / Dar Yapay Zekâ) ;
Mevcut Seviye: Bugün kullandığımız yapay zekâ sistemlerinin çoğu ANI seviyesindedir.
Özellikler: Tek bir görevi veya belirli bir dizi görevi insanlardan daha hızlı ve verimli bir şekilde gerçekleştirebilir. Örneğin: Görüntü tanıma (örneğin, yüz tanıma teknolojileri) ,Dil işleme (ChatGPT gibi modeller) , Satranç veya Go gibi oyunlarda ustalık ,sunum görseller oluşturma, video yapma, Tıbbi teşhis veya otonom araçlar……….
Sınırlamalar: Bu sistemler yalnızca eğitildikleri görevler için çalışır ve genel bir akıl yürütemez, duygusal bilinç gösteremez ya da diğer alanlara uyarlanamaz.
AGI (Artificial General Intelligence / Genel Yapay Zekâ) ;
Hedefleniyor, Ancak Henüz Elde Edilmedi. (Open AI 2025 de çıkacağını belirtti)
Özellikler: İnsan düzeyinde bilişsel yeteneklere sahip, birçok farklı görevi öğrenebilen ve anlayabilen bir yapay zekâ. İnsanların yaptığı gibi akıl yürütebilir, yaratıcılık gösterebilir ve öğrenebilir.
Gelişim Durumu: Araştırmalar devam ediyor; ancak AGI'ye ulaşmak için:
Daha güçlü öğrenme algoritmaları, Gelişmiş işlem gücü, Derin bir etik anlayışı ve güvenlik protokolleri gerekiyor.
Zorluklar: AGI'nin kontrol edilmesi, etik sorunlar, güvenlik ve insan iş gücü üzerindeki etkisi gibi önemli sorulara yol açıyor.
ASI (Artificial Superintelligence / Süper Yapay Zekâ) : Henüz Teorik Bir Kavramdır
Özellikler: İnsan zekâsını her alanda aşan bir yapay zekâ. Bu tür bir sistem, bilim, sanat, mühendislik, etik ve sosyal sorunlar gibi her alanda insan kapasitesinin ötesine geçebilir.
Olası Riskler: ASI'nin kontrolden çıkma riski veya insanlığın varlığına yönelik tehditler, "yapay zekâ kıyameti" senaryolarının bir parçasıdır. Bu konuda Nick Bostrom gibi düşünürlerin öne sürdüğü birçok teori vardır.
Beklentiler: Bazı uzmanlar ASI'ye ulaşmanın onlarca yıl, hatta daha uzun zaman alabileceğini düşünüyor. Ancak, bu alandaki ilerlemenin hızını tahmin etmek zordur.
Şu anda yapay zekâ (AI) araştırma ve uygulamaları Dar Yapay Zeka seviyesindedir Bu, belirli görevlerde son derece iyi performans gösteren, ancak insan düzeyinde genel bir anlayış veya bilinç göstermeyen bir yapay zekâdır.
ANI (Artificial Narrow Intelligence / Dar Yapay Zekâ) ;
Mevcut Seviye: Bugün kullandığımız yapay zekâ sistemlerinin çoğu ANI seviyesindedir.
Özellikler: Tek bir görevi veya belirli bir dizi görevi insanlardan daha hızlı ve verimli bir şekilde gerçekleştirebilir. Örneğin: Görüntü tanıma (örneğin, yüz tanıma teknolojileri) ,Dil işleme (ChatGPT gibi modeller) , Satranç veya Go gibi oyunlarda ustalık ,sunum görseller oluşturma, video yapma, Tıbbi teşhis veya otonom araçlar……….
Sınırlamalar: Bu sistemler yalnızca eğitildikleri görevler için çalışır ve genel bir akıl yürütemez, duygusal bilinç gösteremez ya da diğer alanlara uyarlanamaz.
AGI (Artificial General Intelligence / Genel Yapay Zekâ) ;
Hedefleniyor, Ancak Henüz Elde Edilmedi. (Open AI 2025 de çıkacağını belirtti)
Özellikler: İnsan düzeyinde bilişsel yeteneklere sahip, birçok farklı görevi öğrenebilen ve anlayabilen bir yapay zekâ. İnsanların yaptığı gibi akıl yürütebilir, yaratıcılık gösterebilir ve öğrenebilir.
Gelişim Durumu: Araştırmalar devam ediyor; ancak AGI'ye ulaşmak için:
Daha güçlü öğrenme algoritmaları, Gelişmiş işlem gücü, Derin bir etik anlayışı ve güvenlik protokolleri gerekiyor.
Zorluklar: AGI'nin kontrol edilmesi, etik sorunlar, güvenlik ve insan iş gücü üzerindeki etkisi gibi önemli sorulara yol açıyor.
ASI (Artificial Superintelligence / Süper Yapay Zekâ) : Henüz Teorik Bir Kavramdır
Özellikler: İnsan zekâsını her alanda aşan bir yapay zekâ. Bu tür bir sistem, bilim, sanat, mühendislik, etik ve sosyal sorunlar gibi her alanda insan kapasitesinin ötesine geçebilir.
Olası Riskler: ASI'nin kontrolden çıkma riski veya insanlığın varlığına yönelik tehditler, "yapay zekâ kıyameti" senaryolarının bir parçasıdır. Bu konuda Nick Bostrom gibi düşünürlerin öne sürdüğü birçok teori vardır.
Beklentiler: Bazı uzmanlar ASI'ye ulaşmanın onlarca yıl, hatta daha uzun zaman alabileceğini düşünüyor. Ancak, bu alandaki ilerlemenin hızını tahmin etmek zordur.
Son düzenleme: