1. CPU ve GPU’nun Tarihçesi
CPU Tarihçesi: Modern CPU’ların temeli 1971 yılında Intel 4004’ün piyasaya sürülmesiyle atıldı – bu, tek bir çipte tümleşik ilk ticari mikroişlemciydi. 1970’ler ve 1980’ler boyunca CPU’lar hızla gelişti, transistör sayıları ve işlem kapasiteleri katlanarak arttı (Moore Yasası olarak bilinen eğilim). 2000’lere gelindiğinde tek çekirdekli işlemcilerin hız artışı yavaşlamaya başladı ve bir dönüm noktası olarak 2001 yılında IBM POWER4, aynı çip üzerinde iki işlem çekirdeği barındıran dünyadaki ilk çok çekirdekli CPU oldu. Bu, işlemcilerin ölçeklenebilirliği açısından önemli bir yenilikti ve takip eden yıllarda hem sunucu hem tüketici CPU’larda çok çekirdekli mimariler standart hale geldi.
GPU Tarihçesi: GPU’lar başlangıçta özel amaçlı grafik hızlandırıcılar olarak ortaya çıktı. 1980’lerde kişisel bilgisayarlarda basit grafik işlemlerini CPU’dan devralan 2D grafik kartları bulunurken, 1990’lar 3D grafiklerin yükselişiyle daha gelişmiş grafik donanımlarının doğuşuna tanık oldu. “GPU” terimi ilk kez 1994’te Sony tarafından PlayStation konsolundaki grafik işlemci için kullanıldı, ancak geniş kitlelere tanıtılması NVIDIA’nın 1999’da çıkardığı GeForce 256 kartı ile oldu – NVIDIA bu ürünü “dünyanın ilk GPU’su” olarak pazarladı. Bu kart, donanım seviyesinde transform & lighting gibi grafik hesaplamalarını yapabilen, dönemin en gelişmiş grafik işlemcisiydi. 2000’lerde GPU’lar programlanabilirlik kazanmaya başladı; 2006’da NVIDIA’nın CUDA platformunu tanıtmasıyla GPU’lar genel amaçlı hesaplamalarda (GPGPU) kullanılabilir hale geldi. Bu sayede grafik birimleri, makine öğrenimi, bilimsel simülasyonlar ve kriptografi gibi birçok paralel işlem gerektiren alanda da kullanılmaya başladı. Günümüzde hem CPU hem GPU teknolojileri, geçmişte atılan bu temeller üzerinde birlikte evrimleşmeye devam ediyor.
2. Mimarilerinin Teknik Farkları
CPU ve GPU, her ikisi de milyarlarca transistöre sahip mikroişlemciler olsa da mimari tasarım ve çalışma prensipleri bakımından önemli farklılıklara sahiptir. CPU (Merkezi İşlem Birimi) birkaç adet güçlü çekirdeğe sahiptir ve her bir çekirdek yüksek saat hızında, karmaşık mantık birimleriyle donatılmıştır. Bu yapı, CPU’yu az sayıda işi sırasıyla (seri) ve düşük gecikme ile yürütmede çok başarılı kılar. Örneğin bir CPU, bir uygulamanın ana işleyişini, işletim sistemi görevlerini veya bir veritabanı sorgusunu tek başına hızlıca sonuçlandırabilir. CPU’lar ayrıca büyük önbellek belleklerine ve gelişmiş dal yürütme (branch prediction) mekanizmalarına sahiptir; bu da dallanma içeren, ardışık işlemlerde verimliliği arttırır.
Buna karşılık GPU (Grafik İşlem Birimi) yüzlerce hatta binlerce daha basit çekirdeğe sahiptir ve bu çekirdekler aynı anda (paralel olarak) çalışacak şekilde tasarlanmıştır. Başlangıçta grafik işlemleri için optimize edilmiş olan GPU çekirdekleri, benzer türdeki matematiksel işlemleri çok sayıda veri öğesi üzerinde eşzamanlı yapmakta üstündür. Bir GPU, aynı işlemi pek çok piksel veya vertex üzerinde aynı anda uygulayabildiği için örneğin gerçek zamanlı 3D sahneleri çizerken veya büyük matris çarpımlarını hesaplarken muazzam bir dizisel işlem (throughput) performansı sunar. Ancak her bir GPU çekirdeğinin tekil hızı bir CPU çekirdeğine kıyasla daha düşüktür ve bellek hiyerarşisi gecikmeye göre değil, toplam veri aktarım hızına göre optimize edilmiştir. Özetle, CPU’lar seri işlem gücü ve gecikme optimizasyonu ile öne çıkarken, GPU’lar yüksek paralel işlem gücü ve bant genişliği için özelleşmiştir.
Bu farklı mimari yaklaşım pratikte şu anlama gelir: CPU’lar genel amaçlı programlama için esnek ve çok yönlüdür, hemen her tür işi yapabilirler fakat belli bir anda sınırlı sayıda işi yürütürler. GPU’lar ise daha sınırlı türde işleri fakat devasa sayıda çekirdekle eşzamanlı gerçekleştirebilirler. Modern sistemlerde bu iki birim genellikle işbirliği içinde çalışır; CPU karmaşık mantık ve kontrol akışı gerektiren kısımları üstlenirken, çok sayıda tekrar eden hesaplama içeren kısımları GPU’ya devreder. Bu sayede toplam sistem performansı, her bir birimin en iyi yapabildiği işe odaklanmasıyla maksimize edilir.
3. Geleneksel Kullanım Alanları
CPU – Genel Amaçlı Hesaplama: CPU’lar bir bilgisayar sisteminin “beyni” olarak kabul edilir ve tarihsel olarak her türlü hesaplama görevini yürütmek üzere kullanılmıştır. İşletim sisteminin çalıştırılması, uygulamaların ana işleyişi, giriş/çıkış işlemleri ve sıralı mantık gerektiren her türlü görev CPU üzerinde gerçekleştirilir. Örneğin bir kullanıcının ofis programında belge düzenlemesi, web’de gezinme sırasında sayfa içeriğinin işlenmesi veya bir yazılımın arka planda yaptığı işlemler (dosya okuma/yazma, ağ haberleşmesi vb.) CPU çekirdeklerince yürütülür. CPU’lar çok yönlü oldukları için matematiksel hesaplamalardan karar yapılarına, koşullu işlemlerden sistem çağrılarına kadar geniş yelpazede görevleri üstlenebilir. Özellikle gecikme duyarlılığı yüksek işler (örneğin bir tuşa basıldığında işletim sisteminin anında tepki vermesi gibi) CPU’nun hızlı tek iş parçacıklı performansına dayanır.
GPU – Grafik ve Yoğun Paralel Görevler: GPU’ların geleneksel ve özgün kullanım alanı, grafiklerin işlenmesi ve görüntülenmesidir. Özellikle üç boyutlu oyunlar ve grafik uygulamalarında GPU, ekrandaki piksellerin renk hesaplamalarını, geometri dönüşümlerini ve gölgelendirme işlemlerini CPU’dan devralarak gerçekleştirir. Başlangıçta ekran kartı üzerindeki GPU sadece grafikleri çizmek için tasarlanmıştı. Örneğin bir oyun oynarken, sahnenin çizimi (rendering) sırasında milyonlarca poligonun işlenmesi ve kaplamaların uygulanması GPU sayesinde gerçek zamanlı mümkün olur. Benzer şekilde video oynatılırken çözme (decode) işlemleri veya yüksek çözünürlüklü görüntülerin işlenmesi GPU’nun geleneksel uzmanlık alanıdır. CPU ise bu esnada oyunun genel yapay zekâ hesaplamaları, fizik motoru entegrasyonu veya işletim sistemi ile ilgili görevleri yönetir.
4. Güncel Roller: Yapay Zekâ, Veri Analitiği, Oyun, Bilimsel Hesaplama ve Grafik İşleme
Günümüzde CPU ve GPU’lar, geleneksel rollerinin ötesinde, hızla gelişen teknoloji alanlarında birlikte vazgeçilmez bir ikili haline gelmiştir. Farklı sektör ve uygulamalardaki güncel rollerini şöyle özetleyebiliriz:
- Yapay Zekâ (AI) ve Makine Öğrenimi: Özellikle derin öğrenme alanında GPU’lar adeta lokomotif görevi görmektedir. Sinir ağlarının eğitimi milyonlarca çarpma-toplama işlemi içerdiğinden, binlerce çekirdeğe sahip GPU’lar bu işlemleri paralel halde yürüterek eğitim süresini dramatik biçimde kısaltır. Örneğin devasa bir dil modelinin (GPT-3 gibi) eğitimi, birden fazla yüksek performanslı GPU ile haftalar yerine günler içinde tamamlanabilir. Öte yandan CPU’lar da bu resmin dışında değildir: Eğitim sonrası çıkarım (inference) aşamasında, özellikle küçük ölçekli modellerde veya gerçek zamanlı gereksinimlerde CPU kullanılabilir. Ayrıca modern CPU’lara yapay zekâ hızlandırıcı birimler (Google’ın NPU – Neural Processing Unit gibi) eklenmeye başlanmıştır. Örneğin bazı yeni nesil CPU’lar, üzerinde entegre bir derin öğrenme motoru barındırarak basit makine öğrenimi görevlerini kendi başına hızlandırabilir. Bununla birlikte, büyük ölçekli ve yüksek hesaplama gerektiren AI iş yüklerinde GPU’lar fiili standart konumundadır – nitekim 2020’lerin ortasına gelindiğinde NVIDIA, veri merkezi yapay zekâ hızlandırıcı pazarının %92’sine hakim durumdadır.
- Veri Analitiği ve Büyük Veri: Büyük veri kümelerinin işlenmesi ve analiz edilmesi de CPU+GPU işbirliğinden faydalanmaktadır. CPU’lar veri tabanlarını yönetme, karmaşık sorguları planlama ve I/O işlemlerini gerçekleştirmede kullanılırken, GPU’lar uygun durumlarda yoğun hesaplama içeren veri işleme adımlarını hızlandırabilir. Örneğin GPU destekli bazı SQL veritabanları ve çerçeveler (MapReduce veya Spark GPU hızlandırmaları gibi) büyük veri kümeleri üzerinde hesaplamaları paralelleştirerek geleneksel ortamlara göre katbekat hızlanma sağlar. İstatistiksel analiz, veri madenciliği, finansal risk simülasyonları gibi alanlarda GPU’ların matris işlemlerini ve lineer cebir hesaplamalarını hızla yapabilmesi avantaj sunar. Sonuç olarak, veri analitiğinde hibrit mimariler (CPU + GPU) kullanarak hem veri hazırlama/organizasyon aşaması hem de hesaplama yoğun çekirdek aşaması için doğru işlemci tipinden yararlanmak yaygın bir strateji haline gelmiştir.
- Oyun ve Gerçek Zamanlı Grafik: Oyun sektörü, GPU’ların en görünür olduğu alandır. Modern bir 3D oyun çalışırken, GPU ekrandaki sahneleri çizerken CPU oyunun mantığını, yapay zekâsını ve diğer işlemlerini yönetir. Örneğin bir yarış oyununda CPU araçların fiziğini hesaplar, oyun kurallarını uygular; GPU ise aracın ve çevrenin görüntüsünü oluşturan üç boyutlu modeli, ışıklandırmayı ve efektleri ekrana yansıtır. GPU’lar güncel oyunlarda ışın izleme (ray tracing) gibi ileri tekniklerle gerçekçi yansımalar ve gölgeler üretebilirken, CPU aynı zamanda çoklu oyuncu oturumlarında ağ trafiğini idare etmek veya oyun içi genel akışı sağlamakla meşgul olabilir. Yeni nesil oyun motorları CPU ve GPU’yu yüksek oranda paralel çalışacak şekilde optimize edilmiştir. Bu sayede bir oyun sahnesinde hem hesaplama hem de görsel işleme dengeli biçimde dağıtılır. Sonuç olarak oyun deneyimi, güçlü bir CPU ile güçlü bir GPU’nun ahenkli çalışmasına dayanır – dar boğazı önlemek için her ikisinin de yeterli seviyede olması gerekir.
- Bilimsel Hesaplama ve Yüksek Başarımlı Hesaplama (HPC): Bilimsel araştırmalarda kullanılan süper bilgisayarlar, CPU ve GPU’ları bir arada kullanarak çığır açan sonuçlara imza atmaktadır. Özellikle fizik, kimya, biyoloji gibi alanlardaki yüksek başarımlı hesaplama (HPC) uygulamalarında GPU hızlandırması standart hale gelmiştir. Örneğin hava tahmini, iklim modelleme, galaksi simülasyonu, protein katlanma hesaplamaları gibi devasa işlem gücü gerektiren görevlerde binlerce CPU çekirdeği, binlerce GPU çekirdeğiyle birlikte çalışır. 2022 itibarıyla dünyanın en hızlı süperbilgisayarlarından biri olan Frontier, AMD’nin EPYC işlemcileri ile Radeon Instinct MI250X GPU hızlandırıcılarını bir arada kullanarak exaFLOP seviyesinde (saniyede kentilyonlarca işlem) performansa ulaşmıştır. Bu sistemde her hesaplama düğümünde CPU’lar genel yönetim ve seri hesaplamalar için görev yaparken, yoğun matematiksel işlemler GPU’lar üzerinde yürütülür. Benzer biçimde, yapay zekâ araştırmalarında da süper bilgisayar ölçeğinde GPU kümeleri kullanılmakta, böylece hem bilimsel hem endüstriyel hesaplamalarda çığır açan hız ve verimlilik elde edilmektedir.
- Grafik İşleme ve İçerik Üretimi: GPU’ların orijinal kullanım alanı olan grafik işleme, halen büyük önem taşımaktadır. Oyun motorları dışında da, film endüstrisinde görsel efekt oluşturma (render farm’lar), CAD yazılımlarında 3D modelleme, dijital içerik üretimi gibi alanlarda GPU’lar ana iş gücüdür. Örneğin bir mimari tasarım programında karmaşık bir binanın gerçekçi görselleştirmesini yapmak GPU sayesinde mümkün olur. Video düzenleme yazılımları, yüksek çözünürlüklü videoları işlerken GPU’nun paralel yapısından yararlanarak filtre uygulama, renk düzeltme gibi işlemleri hızlandırır. Grafik işlem birimleri ayrıca kullanıcı arayüzlerinin çizimi (windowing systems) ve tarayıcıların sayfa görüntüleme motorlarında da kullanılır – modern işletim sistemleri ve tarayıcılar, pencerelerin ve web sayfalarının çiziminde GPU ivmelendirmesi yaparak arayüzleri akıcı hale getirir. Kısaca, grafik ve görsel içeriğin olduğu her yerde GPU’lar çalışır durumdadır. CPU ise bu süreçlerde uygulamanın geri kalan lojik akışını, veri hazırlığını ve koordinasyonu sağlar.
5. Enerji Verimliliği ve Sürdürülebilirlik Karşılaştırması
Hem CPU’lar hem de GPU’lar yüksek performansa ulaşmak için ciddi elektrik enerjisi tüketirler. Ancak mimari farklılıkları, enerji verimliliği ve sürdürülebilirlik açısından da farklı sonuçlar doğurur. Genel olarak, belirli bir iş yükünü (örneğin belirli sayıda işlemeyi) tamamlamak için GPU’lar çoğunlukla CPU’lardan daha az enerji harcayabilir, çünkü aynı işi paralel yaparak daha kısa sürede bitirirler. Örneğin ABD Enerji Bakanlığı’na bağlı NERSC laboratuvarında yapılan bir deneyde, bir hava tahmini uygulamasının GPU hızlandırmalı bir sistemde enerji verimliliğinin CPU’ya kıyasla ~5 kat arttığı, aynı işin GPU’larla çalışan sistemde ayda 588 MWh daha az tüketimle tamamlanabildiği rapor edilmiştir. Bu, büyük ölçekli işlemlerde hızın enerji tasarrufuna dönüşmesi olarak özetlenebilir – GPU’lar daha yüksek güç çekseler de işi çok daha hızlı bitirerek toplam tüketimi düşürebiliyorlar. Nitekim bir analizde, bir GPU’nun çalışırken daha fazla watt çekmesine rağmen, saf hesaplama hızındaki üstünlüğü sayesinde aynı işi CPU’dan daha az toplam enerji harcayarak yapabildiği belirtilmiştir.
Öte yandan, mutlak güç tüketimi bakımından GPU’lar oldukça yüksek değerlere ulaşabilmektedir. Modern üst seviye bir ekran kartı (GPU), tek başına 300-400W veya daha fazla güç tüketebilmektedir. Çok sayıda GPU içeren veri merkezi sunucuları ise kilovatlar mertebesinde güç çekmektedir. CPU’lar da güç tüketimini artırmış olsa da (özellikle çok çekirdekli sunucu CPU’ları 250-400W aralığını bulabiliyor), GPU’lar performansla birlikte güç gereksinimlerini de arttırma eğilimindedir. Bu yüzden GPU tasarımcıları enerji verimliliğini artırmak için çeşitli teknikler uygular: Örneğin dinamik voltaj-frekans ayarlamaları, bellek erişiminde akıllı kontrol, çoklu güç domain’leri gibi yöntemlerle boşta veya düşük yükte gereksiz güç tüketimi azaltılmaya çalışılır. Yine de yüksek performanslı GPU’lar ısınma ve soğutma açısından ciddi bir mühendislik meydan okuması yaratır. Bir sistemin ulaşabileceği en yüksek hesaplama gücü, çoğu zaman çekebileceği güç ve atabileceği ısının limitleriyle belirlenir; bu nedenle performans başına watt (FLOPS/Watt gibi) metriği, özellikle veri merkezlerinde kritik hale gelmiştir.
Sürdürülebilirlik boyutunda ise sadece çalışma sırasındaki enerji tüketimi değil, üretim süreçleri ve yaşam döngüsü de önem kazanıyor. Hem CPU hem GPU’ların üretimi son derece karmaşık yarı iletken fabrikasyon süreçleri gerektirir ve yüksek enerji ile malzeme tüketimine yol açar. Yapılan incelemeler, ileri düzey işlemcilerin üretimi, dağıtımı ve kullanım ömrü sonunda bertaraf edilmesinin toplam enerji ayak izinde önemli payı olduğunu göstermektedir. Örneğin bir ekran kartının üretimi sırasında kullanılan malzemeler (nadir toprak metalleri, silikon gofretler vb.) ve üretim tesislerinin tükettiği enerji, cihazın ömrü boyunca harcadığı elektriğin yanında göz ardı edilmemelidir. Bu nedenle yeşil bilişim yaklaşımları, sadece işlemci mimarisinin verimli olmasını değil, aynı zamanda cihazların uzun ömürlü kullanılmasını, geri dönüşümünün yapılmasını ve yenilenebilir enerjiyle çalıştırılmasını da kapsıyor.
Sonuç olarak, CPU ve GPU kıyaslamasında enerji verimliliği iş yüküne bağlı olarak değişir: Tek bir programı çalıştırmada düşük güç tüketen bir CPU çekirdeği avantajlı olabilirken, devasa bir görevi tamamlamada işi binlerce parçaya bölerek kısa sürede bitiren bir GPU toplamda daha az enerji harcayabilir. İdeal senaryoda, hedeflenen uygulama için en uygun mimariye sahip donanım kullanılarak hem yüksek performans hem de yüksek enerji verimliliği elde edilir. Bu yaklaşım yapay zekâ ve HPC alanlarında giderek benimsendiği için, günümüzde CPU-GPU işbirliği enerji açısından da optimum çözüm sunmaktadır. Yine de sektör genelinde, artan bilişim talepleri nedeniyle veri merkezlerinin enerji tüketimi hızla yükselmektedir – bazı tahminlere göre 2030’da dünya genelindeki elektrik tüketiminin %20’si veri merkezlerinden geliyor olabilir. Bu nedenle CPU/GPU üreticileri, sürdürülebilir tasarım ve verimlilik konularına hiç olmadığı kadar odaklanmaktadır.
6. Büyük Üreticilerin Stratejileri (NVIDIA, Intel, AMD, Apple, TSMC vs.)
GPU ve CPU ekosisteminin başlıca oyuncuları, rekabetçi kalmak ve pazar paylarını artırmak adına farklı stratejiler izliyorlar. İşte NVIDIA, Intel, AMD, Apple ve TSMC gibi sektör devlerinin güncel stratejilerine bir bakış:
NVIDIA
GPU denildiğinde akla gelen ilk şirket olan NVIDIA, yıllar içinde oyun grafiklerinden yapay zekâya uzanan geniş bir yelpazede lider konuma gelmiştir. Şirketin stratejisi son dönemde veri merkezi ve yapay zekâ odaklı büyüme üzerine kuruludur. Öyle ki 2024 itibarıyla NVIDIA, veri merkezi GPU pazarının %92 gibi ezici bir payına sahiptir ve bu pazardaki yıllık gelirini 115 milyar dolara kadar çıkarmıştır. NVIDIA’nın başarısının temelinde her alanda uçtan uca çözümler sunma vizyonu yatıyor:
- Donanım tarafında NVIDIA sadece GPU üretmekle kalmıyor, aynı zamanda CPU ve DPU (veri işleme birimi) geliştiriyor. 2021’de şirket, ARM tabanlı ilk veri merkezi CPU’su olan Grace’i duyurdu. CEO Jensen Huang, Grace CPU’yu “devasa yapay zekâ ve HPC yükleri için özel olarak tasarlanmış” bir işlemci olarak tanıttı ve NVIDIA’nın böylece GPU ve ağ işlemcilerine (DPU) ek olarak üçüncü temel teknoloji ayağına sahip olduğunu belirtti. Bu adım, NVIDIA’nın geleceğin veri merkezlerini CPU-GPU-DPU kombinasyonuyla yeniden şekillendirme hedefinin parçasıydı. Grace CPU’nun 2024 civarında piyasaya çıkması beklenirken, NVIDIA bir yandan da mevcut GPU mimarilerini geliştirmeye devam ediyor.
- Yazılım ekosistemi NVIDIA’nın stratejisinin kilit unsurudur. Şirket, CUDA adlı programlama platformuyla yıllardır rakiplerinden ayrıştı. Geliştiriciler CUDA sayesinde GPU’ların gücünden kolayca faydalanabilmekte, bu da NVIDIA donanımını yapay zekâ araştırmacıları ve yüksek başarımlı hesaplama uzmanları için varsayılan tercih haline getirdi. Şirket bu avantajını korumak için her yıl CUDA ve kütüphanelerini güncelliyor, ayrıca yeni yazılım araçları (örneğin yapay zekâ model optimizasyonu için Nvidia TensorRT, dağıtık eğitim için NCCL vb.) sunuyor.
- NVIDIA, ürün portföyünü çeşitlendirme stratejisini de güdüyor. Oyun ve veri merkezi dışında otomotiv (sürücüsüz araç platformları), robotik, uç cihazlar (Jetson serisi) gibi alanlara yönelik özel GPU tabanlı sistemler geliştiriyor. Şirket, Mellanox’u satın alarak yüksek hızlı ağ donanımı işine de girdi ve NVLink gibi teknolojilerle GPU’ların birbirine ve CPU’lara yüksek bant genişliğiyle bağlanmasını sağladı. Sonuç olarak NVIDIA, kendisini sadece bir “GPU üreticisi” değil, tümleşik bir AI platformu sağlayıcısı olarak konumlandırmakta. Yapay zekâ çağına tam anlamıyla yön vermek isteyen şirket, yazılım + donanım + entegre sistem üçlüsünde agresif bir yol haritası izliyor. Bu sayede rakiplerinin önünde kalmayı hedefleyen NVIDIA, Blackwell kod adlı gelecek GPU mimarisi gibi yeniliklerle performansı katlamayı ve müşterilerin özel çözümlere yönelmesini engellemeyi amaçlıyor.
Intel
Intel, on yıllarca CPU pazarının tartışmasız hakimi olduktan sonra, son dönemde stratejisini hem CPU mimarisinde yeniliklere hem de GPU ve hızlandırıcı pazarlarına girişe odaklamıştır. Şirket, bir yandan x86 işlemcilerinde hibrit mimari geçişini yapmaktadır: 2021’de tanıttığı Alder Lake nesliyle birlikte yüksek performans çekirdekleri (P-core) ile verimlilik çekirdeklerini (E-core) bir arada kullanmaya başladı. Bu hamle, daha fazla çekirdeği enerji verimli şekilde ölçekleyerek çok çekirdekli performansı artırma stratejisinin parçasıdır (örneğin 13. nesil masaüstü CPU’larında önceki nesle göre %41’e varan çoklu iş parçacığı performans artışı elde edilmiştir). Intel böylece CPU cephesinde AMD’nin çok çekirdek ataklarına karşı rekabet gücünü korumaya çalışıyor.
Diğer yandan Intel, GPU pazarına güçlü bir giriş yapma stratejisini hayata geçirdi. Uzun süre entegre grafik birimleriyle sınırlı kalan şirket, 2022’de Intel Arc adıyla bağımsız (discrete) ekran kartlarını piyasaya sürdü. Orta segmente hitap eden Arc A770 modelini rakiplerine kıyasla uygun bir fiyatla sunarak kullanıcı tabanı oluşturmayı hedefledi. Her ne kadar ilk nesil Arc GPU’lar bazı ertelemelerle gelse de Intel, grafik sürücü ve yazılım ekosistemini geliştirerek gelecek nesillerde iddiasını artırma niyetinde. Şirket ayrıca veri merkezlerine yönelik GPU çözümlerine de yatırım yapıyor: Ponte Vecchio kod adlı yüksek başarımlı hesaplama GPU’su, ileri paketleme teknikleriyle (EMIB ve Foveros) 47 ayrı yongayı tek bir devasa işlemci olarak birleştiren son derece karmaşık bir üründür. Ponte Vecchio, 128 GB HBM2e bellek ve 3.2 TB/sn bellek bant genişliğiyle süperbilgisayar uygulamalarını hedefleyen “canavar” bir GPU olarak tanımlanıyor. Argonne Ulusal Laboratuvarı’nın Aurora süperbilgisayarında kullanılması planlanan bu GPU, Intel’in NVIDIA ve AMD’ye karşı HPC alanındaki vitrin ürünü konumunda.
Intel’in stratejisinin bir diğer ayağı ise özel amaçlı hızlandırıcılar. Şirket 2019’da Habana Labs’ı satın alarak AI eğitim ve çıkarım çipleri (Gaudi ve Goya) portföyüne kattı. Ayrıca FPGA pazarının lideri Altera’yı 2015’te bünyesine katarak FPGA tabanlı hızlandırıcılar konusunda da varlık gösteriyor. Bu hamleler, Intel’in veri merkezlerinde CPU’ların yanında müşterilere çeşitli hızlandırıcı seçenekleri sunma planının parçası. Şirket, tüm bu farklı donanımları tek çatı altında verimli kullanabilmek için oneAPI adlı bir yazılım çatı platformu geliştiriyor – bu sayede CPU, GPU, FPGA fark etmeksizin tek bir programlama modeliyle çalışmayı mümkün kılmaya çalışıyor.
Özetle Intel, uzun süre domine ettiği CPU pazarındaki liderliğini sürdürmeye çalışırken, aynı zamanda GPU ve hızlandırıcı alanlarında geç kalmışlığı telafi etme stratejisi güdüyor. Şirketin kurumsal alandaki güçlü ilişkileri ve x86 ekosistemindeki hakimiyeti önemli avantaj olsa da, TSMC gibi dökümhane teknolojilerindeki gecikmeler ve NVIDIA gibi dev bir rakibin önlenemez yükselişi, Intel’in önündeki temel zorluklar. Buna karşın Intel, hem kendi üretim teknolojilerini ilerletme (2024-2025 için 20A ve 18A süreç planları gibi) hem de gerektiğinde TSMC üretimine başvurma yoluyla, gelecek on yılda CPU+GPU çözümlerinde yeniden söz sahibi olmayı hedefliyor.
AMD
AMD, hem CPU hem GPU üreten ve bu sayede benzersiz bir konumda bulunan bir diğer büyük şirkettir. 2010’ların başında zorlu bir dönem geçiren AMD, son yıllarda uyguladığı başarılı stratejilerle hem işlemci hem ekran kartı pazarında ciddi pazar payı kazandı. Şirketin stratejisi, yüksek performanslı ve uyarlanabilir bilgi-işlem odaklı olarak tanımlanabilir – bu tanım özellikle 2022’de Xilinx firmasını satın almasıyla daha da pekişmiştir.
- CPU tarafında AMD, Zen mimarisi ile güçlü bir geri dönüş yaptı. Çok çekirdekli, çiplet tasarımını kullanan EPYC sunucu işlemcileri ve Ryzen masaüstü işlemcileri, Intel’e karşı avantaj elde etti. AMD, çiplet yaklaşımıyla bir yonga üzerinde birden fazla küçük kalıpla yüksek çekirdek sayılarına ulaşırken üretim verimliliğini de artırdı. Şirket halen Zen 4 ve Zen 5 nesilleriyle IPC (saat başına komut) ve enerji verimliliğinde artış peşinde. Ayrıca “Zen 4c” gibi bulut için optimize edilmiş çekirdek varyantlarıyla ürünlerini segmente ediyor. Bu sayede EPYC işlemciler bulut sağlayıcıları ve veri merkezlerinde geniş kabul gördü.
- GPU tarafında AMD, Radeon markasıyla hem oyun hem de profesyonel piyasada NVIDIA’ya rakip olmaya çalışıyor. Stratejisi, fiyat/performans oranı yüksek ürünlerle pazar payını artırmak. Özellikle oyun konsollarında (Sony PlayStation ve Microsoft Xbox) AMD GPU’larının kullanılması şirkete sürekli bir gelir ve optimizasyon deneyimi sağlıyor. AMD’nin en büyük hamlelerinden biri, HPC ve AI için MI200/MI300 Instinct hızlandırıcı serisini çıkarmak oldu. 2022’de Frontier süperbilgisayarında kullanılan MI250X GPU’ları, AMD’nin CPU-GPU işbirliğinde ne kadar rekabetçi olabildiğini gösterdi. Bunu bir adım ileri taşıyan AMD, 2023’te piyasaya sürülecek MI300 serisiyle CPU ve GPU’yu aynı pakette birleştiren dünyanın ilk veri merkezi APU’sunu tanıttı. MI300, 24 adet Zen 4 CPU çekirdeği ile CDNA3 GPU çekirdeklerini ortak HBM bellekle tek bir 3D entegre paket içinde sunarak yapay zekâ eğitiminde MI200’e göre 8 kata kadar performans artışı vaat ediyor. Bu heterojen tasarım, AMD’nin hem işlemci hem grafik alanındaki uzmanlığını birleştirme stratejisinin zirve noktası denebilir.
- AMD’nin bir diğer stratejik kozu, Adaptive Computing (Uyarlanabilir bilişim) alanı. Xilinx’in satın alınmasıyla gelen FPGA ve adaptif SoC ürünleri, AMD’yi rakiplerinden farklı kılıyor. Şirket, Xilinx’in geliştirdiği Versal mimarisi gibi ürünleri portföyüne ekleyerek, müşterilere CPU+GPU dışındaki hızlandırıcı seçeneklerini de sunabilir hale geldi. Örneğin artık bir veri merkezi müşterisi, AMD’den hem EPYC CPU, hem Instinct GPU, hem de FPGA tabanlı adaptif kartları tedarik edebilir durumda. AMD CEO’su Dr. Lisa Su, 2022 Finansal Analist Günü’nde yaptığı konuşmada vizyonlarını “uçtan uca yapay zeka eğitim ve çıkarım çözümleri sunmak” olarak özetledi ve şirketin kenardan buluta her segmente hitap eden silikon parçaları üretebildiğinin altını çizdi. Bu geniş ürün portföyü, AMD’ye yapay zeka pazarındaki en büyük büyüme fırsatını sunuyor – nitekim Su, yapay zekâ pazarını AMD’nin “en büyük büyüme fırsatı” olarak tanımladı.
Özetle AMD, birleştirici bir strateji güdüyor: Yüksek performanslı x86 CPU’lar, rekabetçi GPU’lar ve FPGA tabanlı hızlandırıcılar ile müşterilere tam bir paket sunabilmek. Tabii bu stratejinin karşısında NVIDIA gibi yazılım ekosistemi avantajına sahip bir dev bulunuyor. AMD, açık kaynaklı yazılım stratejileri (ROCm gibi açık GPU hesaplama platformu) ve iş ortaklıkları ile bu dezavantajı kapatmaya çalışıyor. Şirket, hem NVIDIA’nın veri merkezi tekelini kırma hem de Intel’in CPU pazarındaki hakimiyetini sarsma yönünde “ikinci oyuncu” konumunu avantaja çevirmeyi umuyor. Bu gerçekleşirse, AMD için önümüzdeki on yıl çok parlak olabilir – analistler, AMD’nin yapay zekâ çip pazarından %25 pay alabilirse bir “trilyon dolarlık şirket” haline gelebileceğini öngörüyor.
Apple
Apple, diğer şirketlerden farklı bir stratejiyle, kendi ekosistemine özel CPU ve GPU tasarımları geliştiriyor. 2020’de tanıttığı Apple M1 çipiyle birlikte, PC/laptop dünyasında ilk kez ARM tabanlı, hem CPU hem GPU’yu ve diğer bileşenleri bir arada barındıran bir sistem çipi (SoC) ile yüksek performans elde edilebileceğini kanıtladı. Apple’ın stratejisi, dikey entegrasyonun avantajlarını kullanarak özelleştirilmiş silikonda maksimum verimlilik kazanmak şeklinde özetlenebilir.
- Entegre Mimari: Apple M1, 5 nm teknolojisiyle üretilen ve 16 milyar transistöre sahip bir yongada sistemdir. İçerisinde yüksek performanslı ve yüksek verimli CPU çekirdekleri, güçlü bir GPU, yapay zekâ işlemleri için Neural Engine ve çeşitli özel devreler (video kodlama/çözme, bellek/saklama denetçileri vb.) bulunur. Apple, bu tasarımda birleşik bellek mimarisi (unified memory) kullanarak CPU ve GPU’nun aynı yüksek bant genişlikli bellek havuzunu paylaşmasını sağlamıştır. Sonuç olarak M1 çipi önceki nesil Mac modellerine kıyasla bir sıçrama yaratmıştır: Apple’a göre M1 tabanlı Mac’ler, Intel işlemcili seleflerine kıyasla CPU performansını 3.5 kat, GPU performansını 6 kata kadar artırmış ve bunu yaparken 2 kata kadar daha uzun pil ömrü sunmuştur. Yani Apple, özelleştirilmiş donanımla hem yüksek hız hem düşük güç tüketimini aynı anda elde edebilmiştir.
- CPU ve GPU İnovasyonu: Apple’ın CPU çekirdekleri, ARM mimarisini özelleştirerek çok yüksek tek çekirdek performansına ulaşmıştır (2020’lerde piyasanın en yüksek tek çekirdek skorlarından birine sahiptir). GPU tarafında ise Apple, entegre GPU’larının mobil ve dizüstü cihazlarda üst seviye ayrık GPU’lara yaklaşmasını hedefliyor. Örneğin M1 Max çipi 32 adet GPU çekirdeği ile 10.4 teraflop’a varan hesaplama gücü sunarak yaratıcı profesyonellerin ihtiyaçlarını dahili GPU ile karşılama iddiasındadır. Bu GPU’lar, PC dünyasındaki dev ekran kartları kadar olmasa da, optimize edilmiş macOS yazılımlarıyla birlikte son kullanıcıya oldukça yeterli performans sağlıyor.
- Yapay Zekâ ve Diğer Özellikler: Apple çiplerindeki Neural Engine, özellikle iPhone ve iPad’lerde başlayan bir yapay zekâ hızlandırma birimi. Görüntü işleme, ses tanıma gibi görevleri CPU/GPU’ya yüklemeden verimli şekilde gerçekleştiriyor. Apple, geleceğin bilgi işlem deneyimlerinde özel amaçlı devrelere daha çok yer verileceğini öngörerek çiplerine medya işleme motorları, güvenlik elemanları (Secure Enclave) ve sinyal işlemciler entegre ediyor. Bu strateji, Apple cihazlarının farklılaşmasında kilit rol oynuyor; örneğin bir iPhone ile çekilen fotoğrafın anında işlenip optimize edilmesi, büyük ölçüde bu özel devreler sayesinde.
Apple’ın büyük resmi, kendi donanımı ve yazılımı üzerinde tam kontrol sağlayarak optimum kullanıcı deneyimi ve verimlilik elde etmek. Şirket, CPU/GPU tasarımındaki ilerlemeleriyle geleneksel x86 dünyasını sarsmış durumda. MacBook’ların pil ömrü ve sessiz çalışması, M-serisi çiplerin verimliliği sayesinde önemli ölçüde iyileşti. Gelecekte Apple’ın bu stratejiyi devam ettirerek, belki masaüstü ve üst düzey grafik iş istasyonlarına yönelik daha güçlü Apple Silicon türevleri çıkarması beklenebilir. Ayrıca Apple, artırılmış gerçeklik (AR) gibi yeni alanlar için de özel yongalar geliştirerek rekabette fark yaratmayı planlıyor. Sonuç olarak Apple, dar ekosistemine yoğunlaşan bir strateji ile kendi cihazlarında CPU-GPU gelişimini kontrol altında tutuyor ve bu sayede pazarda benzersiz bir konum elde ediyor.
TSMC
Diğer bahsedilen şirketler doğrudan işlemci tasarlayıp pazarlarken, TSMC (Taiwan Semiconductor Manufacturing Company) yarı iletken üretim tarafında stratejik bir oyuncudur. TSMC, dünyanın en gelişmiş dökümhane (yonga üreticisi) şirketi olarak hem CPU hem GPU gelişiminin arkasındaki görünmez güç konumundadır. Apple, AMD, NVIDIA gibi şirketlerin en yeni ve en hızlı çipleri büyük ölçüde TSMC’nin fabrikalarında üretiliyor. Dolayısıyla TSMC’nin stratejisi, lider üretim teknolojisini sürdürmek ve müşterilere özel çözümler sunmak şeklinde özetlenebilir.
- İleri Üretim Düğümü Liderliği: TSMC, 7 nm, 5 nm derken 3 nm ve yakın gelecekte 2 nm gibi endüstrinin en küçük transistör boyutlarına sahip üretim süreçlerini ilk sunan firma olmuştur. Bu sayede müşterileri daha yüksek transistör yoğunluğu, daha hızlı ve verimli çipler tasarlayabilmektedir. Şirketin “Foundry 2.0” stratejisiyle tedarik zincirinin daha fazla kontrolünü ele alarak CPU ve GPU müşterilerinin ihtiyaçlarını en iyi şekilde karşılamayı hedeflediği belirtiliyor. TSMC, her yeni düğümde güç tüketimini düşürüp performansı artırarak Moore Yasası’nı fiilen devam ettiriyor. Örneğin 3nm teknolojisinin önceki nesile kıyasla aynı güçte %10-15 daha yüksek hız veya aynı hızda %25-30 daha düşük güç vaat ettiği bildiriliyor.
- Segmentasyon ve Özelleştirme: Artık tek bir üretim süreci tüm müşteri ihtiyaçlarına uymayabiliyor. TSMC bunu gördüğü için stratejisini “segment-optimize edilmiş” süreçler sunmak yönünde evriltmiştir. Örneğin HPC ve yapay zekâ uygulamaları için güç dağıtımını iyileştiren özel arka yüz metalizasyon (BSPDN) içeren N4X/N5X gibi varyantlar veya mobil cihazlar için düşük güç optimizasyonlu N3E süreçleri geliştirmektedir. Bu sayede bir yapay zekâ hızlandırıcı tasarlayan müşteri ile akıllı telefon çipi tasarlayan müşteri, kendi ihtiyaçlarına daha uygun, özelleşmiş üretim tekniklerinden faydalanabiliyor. TSMC aynı zamanda gelişmiş paketleme teknolojilerine de büyük yatırım yapıyor: 2.5D entegrasyon için CoWoS (GPU’ların HBM belleklerle bir araya konduğu teknoloji) veya 3D yonga istifleme için SoIC teknikleri, müşterilerin birden fazla çipi tek bir paket gibi kullanabilmesini sağlıyor. Örneğin AMD’nin 3D V-Cache bellek istiflemesi veya Apple’ın M1 Ultra’da iki kalıbı paket içinde birleştirmesi, TSMC’nin sağladığı bu yenilikçi paketleme teknolojileriyle mümkün oldu.
- Müşteri İlişkileri ve Kapasite: TSMC’nin en büyük müşterileri Apple, AMD, NVIDIA, Qualcomm gibi devler. Şirket stratejik olarak kapasitesinin önemli bölümünü bu müşterilere ayırıyor ve onlarla uzun vadeli işbirlikleri kuruyor. Örneğin her yıl yeni iPhone işlemcisini sadece TSMC üretiyor. Bu durum TSMC’ye sabit bir talep garantisi verirken, müşterilere de en ileri teknolojiye ilk erişim avantajı sunuyor. Ancak talep o kadar yüksek ki, son dönemde kapasite sıkışıklığı yaşandı – NVIDIA’nın son teknoloji H100 GPU’larında tedarik sıkıntıları TSMC’nin üretim kapasitesinin sınırlı olmasından kaynaklandı. TSMC buna yanıt olarak kapasite yatırımlarını artırıyor (Taiwan’da ve ABD Arizona’da yeni fabrikalar inşa ediyor). Şirket ayrıca gerekirse müşterilerin Intel ve Samsung gibi alternatif üreticilere yönelmesini engellemek adına esnek üretim çözümleri de sunuyor.
Genel olarak TSMC, “Herkesin Fabrikası” olma felsefesini sürdürüyor ancak bunu yaparken tek tip yaklaşım yerine amaç-built (amaca yönelik) üretim süreçleri ve entegre paketleme gibi yeniliklerle müşteri ihtiyaçlarına uyum sağlıyor. Bu strateji sayesinde yapay zekâ ve HPC çağında da lider konumunu korumayı hedefliyor. Nitekim günümüzde veri merkezi için değerli sayılan işlemci ve hızlandırıcıların neredeyse tamamı TSMC tarafından üretiliyor; şirket gelirinin yarısından fazlası AI/HPC segmentinden gelmeye başlamış durumda. TSMC önümüzdeki dönemde de Ar-Ge yatırımlarıyla en ileri düğümleri sunmaya, kapasite yatırımlarıyla talebi karşılamaya ve yarı iletken üretimindeki kritik rolünü sürdürmeye kararlı görünüyor.
7. Veri Merkezi Altyapıları ve Donanım Entegrasyonu
Modern veri merkezlerinde CPU ve GPU’lar, birlikte çalışacak şekilde tasarlanmış kompleks altyapıların parçalarıdır. Yüksek başarımlı sunucular, genellikle çok soketli CPU’lar ile bir veya daha fazla GPU hızlandırıcıyı aynı kasa içinde barındırır. Bu bileşenlerin etkili bir şekilde entegre olması, genel sistem verimini belirler. İşte veri merkezi donanım entegrasyonunda öne çıkan eğilimler:
- CPU-GPU Bağlantıları: Geleneksel olarak sunucu GPU’ları ana sistemle PCI Express veri yolu üzerinden haberleşir. Ancak bu iletişimin bant genişliği ve gecikme kısıtları, GPU’ların tam potansiyeline ulaşmasını engelleyebiliyordu. Bu sorunu aşmak için özel yüksek hızlı ara bağlantılar geliştirildi. NVIDIA’nın NVLink teknolojisi, birden fazla GPU’yu ve GPU-CPU’yu birbirine çok yüksek bant genişlikleriyle bağlayarak adeta dev bir paylaşımlı bellek alanı gibi çalışmalarını sağlıyor. AMD ise benzer şekilde Infinity Fabric ara bağlantısını CPU ve GPU’ları arasında kullanıyor. Örneğin AMD’nin Frontier süperbilgisayarında, EPYC işlemciler ile MI250X GPU’lar Infinity Fabric üzerinden sıkı bir şekilde bağlıydı ve bu sayede GPU’lar ile CPU arasında hızlı veri alışverişi mümkün oldu. Bu tür bütünleşik bağlantılar, heterojen sistem mimarilerinin temelini oluşturuyor.
- Birleşik Bellek ve Coherency: CPU ve GPU’nun verimli ortak çalışması için bellek tutarlılığı (coherency) önemli bir konudur. Yeni nesil sistemlerde CPU ve GPU, adreslenebilir bellek alanlarını paylaşabiliyor. NVIDIA’nın Grace CPU + Hopper GPU “superchip” tasarımı, NVLink aracılığıyla CPU belleği ile GPU belleğini koheret biçimde birleştirmeyi amaçlıyor. Bu yaklaşım, programcıların iki ayrı bellek havuzu yerine tek bir ortak bellek alanı varmış gibi kod yazabilmesine imkân veriyor. AMD de CDNA2/3 tabanlı GPU’larıyla Coherent Accelerated Memory kullanarak benzer bir bellek paylaşımı sağladı. Bunun bir adım ötesi, CPU ve GPU’yu tamamen aynı paket içinde birleştirmektir ki AMD’nin MI300A APU’su tam olarak bunu yapıyor: 3D yığma teknolojisiyle aynı pakette bir araya gelen CPU ve GPU yongaları, fiziksel ve sanal bellek havuzunu paylaşarak tek bir yonga gibi çalışıyor. Bu, veri merkezlerinde CPU-GPU entegrasyonunun zirve noktalarından biri olarak görülüyor.
- Aynı Pakette CPU+GPU Çözümleri: Heterojen sistem mimarilerinin bir trendi de CPU ve GPU’nun tek bir modülde bütünleştirilmesi. Yukarıda bahsedilen AMD MI300 gibi, ya da NVIDIA’nın Grace Hopper modülü gibi örnekler, veri merkezi düğümlerini basitleştirmek ve gecikmeleri azaltmak amacıyla geliştirildi. NVIDIA Grace Hopper GH200, 72 çekirdekli bir ARM CPU (Grace) ile bir H100 GPU’yu aynı karta yerleştirip NVLink ile bağladı – her ne kadar ayrı bellek havuzları olsa da tek bir birleşik birim gibi sunuluyor. Bu tip tasarımlar, CPU ile GPU arasındaki iletişimi maksimum düzeye çıkartırken, sistem bütünleşmesini de kolaylaştırıyor (daha az ayrı kart, kablo vs). Önümüzdeki yıllarda bu yaklaşımın yaygınlaşması bekleniyor; örneğin Intel de benzer şekilde CPU ve GPU’yu entegre eden Ponte Vecchio + Sapphire Rapids modülleri üzerinde çalıştı.
- Ağ ve Depolama Entegrasyonu: Veri merkezi entegrasyonunda sadece hesaplama birimleri değil, ağ ve depolama katmanları da önemlidir. GPU kümeleri, çok sayıda düğüm üzerinde dağıtık eğitim yaparken, aralarındaki iletişim için özel yüksek hızlı anahtarlar ve adaptörler (InfiniBand, NVSwitch vs.) kullanılır. Ayrıca GPU’lar doğrudan hızlı depolama birimlerine (NVMe over Fabrics gibi teknolojilerle) bağlanarak, büyük veri setlerini CPU’ya uğramadan işleyebilmektedir. Bu tür doğrudan yollar, GPU’ların bekleme sürelerini azaltarak etkin hesaplama süresini artırır.
- Soğutma ve Güç Altyapısı: Entegrasyonun bir diğer boyutu da fiziksel altyapıdır. Yüksek yoğunluklu CPU+GPU sistemleri muazzam ısı üretir ve geleneksel hava soğutma yetersiz kalabilir. Bu nedenle bir çok veri merkezi, sıvı soğutma çözümlerine geçiyor. Örneğin doğrudan yonga üzerine su blokları yerleştirerek CPU ve GPU’ları soğutmak, veya sunucu raflarını daldırma sıvı soğutma tanklarına kurmak gibi yöntemler deneniyor. Güç dağıtımı konusunda da yenilikler mevcut: Eskiden sunucular 12V güç raylarını kullanırken, artık 48V dağıtım yaygınlaşıyor çünkü GPU kartlarının anlık çektiği akım çok yükseldi (gelecekte tek bir GPU modülünün 1 kW’ı aşabileceği öngörülüyor. Bu altyapısal değişiklikler, CPU-GPU entegrasyonunun getirdiği yoğunluğa ayak uydurmak için zorunlu hale geliyor.
Özetle, veri merkezi donanım entegrasyonu, düğüm içi ve düğümler arası entegrasyon olarak iki düzeyde ilerliyor. Düğüm içinde CPU, GPU, bellek, depolama ve ağ arabirimleri gitgide daha sıkı ve hızlı bağlanıyor; düğümler arasında ise yüksek bant genişlikli ağlar büyük GPU kümelerinin birlikte çalışmasına olanak tanıyor. Bu sayede devasa ölçekli yapay zekâ modellerinin eğitimi veya çok karmaşık simülasyonlar, binlerce işlemci biriminin adeta tek bir organizma gibi uyum içinde çalışmasıyla mümkün hale geliyor.
8. Alternatif İşlem Birimleri (TPU, FPGA vb.) ile Karşılaştırma
CPU ve GPU’ların yanı sıra, özel görevler için tasarlanmış alternatif işlem birimleri de ortaya çıkmıştır. Uygulamaya özel entegre devreler (ASIC) kategorisine giren bu birimler, belirli iş yüklerinde geleneksel CPU/GPU’lara göre çarpıcı avantajlar sunabilir. En dikkat çekici iki örnek, TPU (Tensor Processing Unit) ve FPGA (Field-Programmable Gate Array) tabanlı hızlandırıcılardır.
- TPU (Tensor İşleme Birimi): Google tarafından geliştirilen TPU’lar, özellikle derin öğrenme sinir ağları için optimize edilmiş özel çiplere örnektir. TPU’lar, adından da anlaşılacağı gibi tensör (matris) operasyonlarını son derece yüksek paralellikte ve verimli şekilde gerçekleştirecek donanımsal yapıya sahiptir. Bir GPU’ya kıyasla daha az esnek ama belirli AI işlerimde çok daha hızlı olabilirler. Örneğin Google’ın 4. nesil TPU sistemi, aynı dönemin en güçlü NVIDIA GPU’su olan A100’e kıyasla 1.2-1.7 kat daha hızlı çalışıp 1.3-1.9 kat daha az güç tüketebildiği araştırmacılar tarafından rapor edilmiştir. Bu, belirli bir ölçek ve uygulama için (özellikle büyük dil modellerinin eğitimi gibi) TPU’ların müthiş bir enerji verimliliği ve performans sağlayabileceğini gösterir. Nitekim Google, kendi yapay zekâ altyapısında binlerce TPU’dan oluşan dev “TPU Pod” süperbilgisayarlar kullanmakta ve bunlarla yeni rekorlar kırmaktadır. Ancak TPU’lar genelleştirilmiş donanımlar değildir; esneklikleri kısıtlı olduğu için sadece TensorFlow gibi belirli framework’lerde ve Google ekosisteminde kullanılabilirliği vardır. Yine de bu konsept, diğer şirketleri de benzer AI hızlandırıcı ASIC’ler geliştirmeye teşvik etmiştir: Amazon’un Trainium (eğitim için) ve Inferentia (çıkarım için) çipleri, Meta’nın iç geliştirme AI çipleri gibi örnekler hep GPU tekelini kırmak amacıyla ortaya çıkan alternatiflerdir. Örneğin Amazon, Inferentia tabanlı AWS Inf1 sunucularının muadil GPU sunucularına göre %70’e varan maliyet avantajı sağladığını belirtmiştir.
- FPGA (Programlanabilir Kapı Dizileri): FPGA’ler, donanım seviyesinde programlanabilen ve istenen devreyi taklit edebilen yarı iletken çiplerdir. GPU ve TPU’nun aksine kullanıcı tarafından yeniden yapılandırılabilir olmaları en önemli özellikleridir. Bir FPGA, belirli bir algoritmayı donanım olarak uygulayacak şekilde programlanabilir ve ihtiyaç değişirse farklı bir devre gibi tekrar düzenlenebilir. Bu esneklik sayesinde FPGA’ler farklı uygulamalarda özel hızlandırıcı vazifesi görebilir. Örneğin düşük gecikme gereken işlerde FPGA’ler çok değerlidir; bir FPGA, veriyi doğrudan donanımsal mantıkla işleyip sonuç verebildiği için, bir yazılım döngüsünün kısıtlarına takılmadan milisaniyenin altında tepki süreleri yakalayabilir. Yapay zekâ alanında ilk FPGA kullanım örneklerinden biri Microsoft’un 2010’ların ortasında Bing arama motoru için yaptığı projedir – arama sorgularının sıralanmasında FPGA hızlandırma kullanarak %50 daha yüksek throughput elde etmişlerdir. FPGA’lerin avantajları arasında deterministik ve düşük gecikme, yüksek özel işlem verimi ve enerji verimliliği sayılabilir. Hatta bazı araştırmalar, birçok uygulamada FPGA’lerin watt başına performansının GPU’lardan daha iyi olabildiğini göstermiştir. Özellikle gerçek zamanlı ses tanıma, finansal işlem algoritmaları (yüksek frekanslı alım-satım gibi) veya ağ paket işleme gibi görevlerde yaygın olarak FPGA hızlandırma kullanılmaktadır. FPGA’nin dezavantajı ise programlamasının zorluğudur – donanım tanımlama dilleri (HDL) uzmanlığı gerektirir ve geliştirme süreci yazılıma göre daha uzun olabilir. Ancak yüksek getiri potansiyeli olan uygulamalarda bu yatırıma değer bulunuyor. Örneğin günümüzde bulut sağlayıcıları (Azure, AWS) müşterilere FPGA tabanlı hızlandırıcı instanslar sunmakta, böylece özel donanım hızlandırma ihtiyacı duyanlar “FPGA as a Service” alabilmektedir. Sonuç olarak FPGA’ler, CPU/GPU’lara kıyasla niş ama kritik bir rol oynamakta: İhtiyaca göre donanım olabilmeleri, hızlı prototipleme ve özel optimizasyon imkanı sunuyor. Microsoft’un bu teknolojiyle ilgili bir yorumu, FPGA’nin “yeni bir işlemci geliştirme maliyetini ve karmaşıklığını üstlenmeden ASIC benzeri performans sunması” yönünde olmuştur. Bu yönüyle FPGA, hem AR-GE amaçlı hem de son ürün olarak uzun süre daha stratejik bir hızlandırıcı olarak kalacaktır.
- Diğer Özel Birimler: TPU ve FPGA dışında da çeşitli alternatif işlem birimleri gelişiyor. ASIC tabanlı AI yongaları alanında Graphcore firmasının IPU (Intelligence Processing Unit) adlı çipi, Cerebras firmasının tüm bir silikon plaka boyutundaki Wafer-Scale Engine (WSE) gibi ekstrem tasarımlar dikkat çekiyor. Bu özel çipler de benzer şekilde yapay zekâ eğitiminde yüksek performans iddiasında. Hatta Graphcore’un Bow IPU sistemi, Google’ın yayınladığı bir makalede TPU v4’e kıyasla 4.3 kat yavaş kalmakla beraber, özelleşmiş bir rakip olarak değerlendirildi. Yine de bu yeni nesil çipler henüz GPU’ların hakimiyetini kırabilmiş değil, daha çok potansiyel vaat ediyor. Bir diğer alternatif mimari türü ise neuromorphic (sinirsel) işlemciler – beyin yapısından ilhamla geliştirilip, yapay sinaps ve nöronlar üzerinden farklı bir hesaplama modeli sunuyorlar (Intel Loihi gibi). Bu alan henüz erken aşamada olsa da gelecekte belli AI uygulamalarında öne çıkabilir. Son olarak kuantum bilgisayarlar da spesifik problemler için alternatif hesaplama birimi olarak görülebilir, ancak genel amaçlı CPU/GPU yerini alması beklenmez; daha çok belirli optimizasyon ve kimya problemlerine yönelik kalacaktır.
Tüm bu alternatifler, iş yüküne özgü optimizasyonun önemini göstermektedir. CPU ve GPU genel amaçlı ve geniş ölçekli ekosistem desteğine sahip olmalarıyla uzun vadede de bilişimin bel kemiği olmayı sürdürecekler. Ancak belirli ihtiyaçlar için TPU ya da FPGA gibi çözümler devreye girerek performans ve verimlilik çıtasını yükseltiyorlar. Örneğin büyük teknoloji şirketleri kendi özel AI hızlandırıcılarını geliştirerek Nvidia’ya olan bağımlılıklarını azaltmaya çalışıyor – Amazon’un Inferentia’sı, Google’ın TPU’su bu motivasyona sahip. Bu da pazarın geleceğinde heterojenliğin artacağına işaret ediyor; yani tek tip işlemci yerine, karma yapıda birden fazla özel işlemciyi barındıran sistemler norm haline gelebilir. Son kullanıcının deneyimi ise tüm bu karmaşık hızlandırıcıların arkasında, daha hızlı yanıt veren yapay zekâ servisleri ve daha güçlü hesaplama kapasitesi olarak yansıyacaktır.
9. Gelecek Projeksiyonları (2025–2035)
Önümüzdeki 10 yıl, CPU ve GPU teknolojilerinde büyük değişimlerin ve ilerlemelerin yaşanacağı bir dönem olacak. 2025–2035 arası için yapılan projeksiyonlar, hem donanım mimarileri hem de yarıiletken endüstrisinin ekosistemi açısından dikkat çekici öngörüler sunuyor:
- Heterojen Bilişim ve Özel Hızlandırıcılar: CPU ve GPU birlikteliği, gelecekte daha da iç içe geçecek. Artık “CPU vs GPU” şeklinde bir rekabetten ziyade, iş yüküne göre en doğru bileşenlerin bir arada kullanılması anlayışı hakim. 2030’a doğru yapay zekâ ve veri işleme ihtiyacının patlamasıyla birlikte, sistemlerde CPU’ya ek olarak GPU, TPU, FPGA, DPU gibi birden çok hızlandırıcıyı görmek sıradan hale gelecek. Bu da yazılım tarafında heterojen sistem programlama modellerinin olgunlaşmasını gerektirecek. NVIDIA’nın CUDA + CPU modeli, Intel’in oneAPI ekosistemi, AMD’nin ROCm girişimi gibi çabalar bu yüzden önemli. Ayrıca RISC-V gibi açık mimarilerin yükselişi de beklenebilir; özellikle özelleştirilmiş hızlandırıcılarda RISC-V çekirdekleri kontrol birimi olarak sıkça kullanılmaya başladı bile. 2030’lara gelindiğinde, veri merkezlerindeki toplam bilgi işlem gücünün büyük kısmının GPU/AI hızlandırıcılardan gelmesi ve bu alandaki işlemci sevkiyatının geleneksel CPU sevkiyatını aşması öngörülüyor. Başka bir deyişle, işlem hacmi açısından GPU/AI çipleri “yeni CPU” haline gelebilir.
- Performans Artışı ve Exascale Sonrası: 2022’de ilk exaFLOP (10^18 FLOPS) süperbilgisayara ulaşılması bir dönüm noktasıydı. 2025 sonrasında bu çıta katlanarak artacak. Intel’in 2016’daki öngörülerine göre 2026 civarında 20 exaFLOP, 2030’da 100 exaFLOP düzeyi mümkün görülüyordu. Gerçekleşme hızına bakarsak, 2030’da birkaç on exaFLOP seviyesinde süperbilgisayarların faal olması muhtemeldir. Hatta bazı iddialı hedefler “zettascale” (10^21 FLOPS) yani 1000 exaFLOP için 2027 gibi tarihler telaffuz etmişti, ancak bu muhtemelen 2030’ların ortasını bulacaktır. Performans artışı sadece HPC ile sınırlı değil; tüketici tarafında da grafik işlem gücü ve CPU hesaplama gücü istikrarlı biçimde artacak. Fakat Moore Yasası’nın geleneksel anlamda yavaşlamasıyla, bu artış daha çok çoklu yonga paketleri, 3D yığınlar ve paralellikle gelecek. Örneğin GPU’lar için çekirdek sayıları binlerceden on binlerce seviyeye çıkabilir, yüksek bant genişlikli bellek kapasiteleri 2025’te 128 GB civarından 2030’da terabayt seviyelerine yaklaşabilir. CPU’lar için de çekirdek sayıları sunucularda yüzleri bulabilir (AMD’nin 2023’te 128 çekirdekli EPYC “Bergamo” çipi gibi, belki 2030’da tek sokette 512+ çekirdek mümkün olacaktır). Özetle, donanım paralelliği artmaya devam ederek toplam sistem performansını yükseltecek.
- Enerji Verimliliği ve Soğutma: Performansla birlikte enerji tüketimi de geleceğin en büyük endişesi. Endüstri, birim işlem başına enerjiyi sürekli düşürse de (örneğin AMD, 2030’a kadar 2020’ye kıyasla 30 kat iyileşme hedefliyor), toplam talep o kadar artıyor ki, veri merkezlerinin dünya elektrik tüketimindeki payı kaçınılmaz şekilde yükseliyor. Bazı araştırmalar 2030’da yapay zekâ ile yoğunlaşan veri merkezlerinin küresel elektriğin %15-20’sini tüketebileceğini öne sürüyor. Bu yüzden sürdürülebilir tasarım olmazsa olmaz olacak. Yonga mimarileri, performans kadar güç verimliliğine optimize edilecek; “dark silicon” konseptiyle çipin her yeri aynı anda aktif edilmeyip ihtiyaç duyulan bölümler çalıştırılacak. Soğutma için 2030’da havadan sıvı soğutmaya büyük ölçüde geçiş olabilir, hatta bazı ekstrem durumlarda chip üzeri mikroyapılarla direkt soğutma uygulanabilir. Güç dağıtımında da devrimler gerekebilir – 2020’lerin ortasında 700-800W’lık GPU modülleri görülmeye başlandı, 2030’da 1.5-2 kW tek kart düzeyinde tüketimler olası (özellikle CPU+GPU süper modülleri için). Bu nedenle endüstri 48V raf sistemlerine, daha verimli güç kaynaklarına ve belki süperiletken ara kablolara yönelebilir. Ayrıca silisyum fotoniği gibi teknolojilerle yongalar arası iletişimde optik bağlantılar devreye girip elektriksel kayıpları azaltabilir – 2030’a kadar silikon fotoniğinin veri merkezlerinde yaygınlık kazanacağı tahmin ediliyor. Bu hem güç tasarrufu hem hız açısından kritik olacak.
- 3D Entegrasyon ve Yeni Malzemeler: 2025 sonrasında yarı iletken dünyasında en heyecan verici gelişmelerden biri, çiplet tasarımların norm haline gelmesi ve 3D yonga istifleme tekniklerinin olgunlaşmasıdır. Artık tek bir büyük monolitik yonga yerine, birden fazla küçük yonganın bir arada çalışması (AMD bu yaklaşımı kanıtladı) ana yöntem oldu. 2030’a gelindiğinde her yüksek performanslı işlemci çok yongalı veya çok katmanlı yapıda olacak. Örneğin bir GPU, ayrı hesaplama yongaları + bellek yongaları + kontrol yongalarından oluşan bir “yonga sistemi” şeklinde sunulacak. Bu modülerlik üretimi kolaylaştırırken, farklı üreticilerin IP bloklarının aynı pakette birleşmesini de sağlayacak (TSMC’nin de stratejisinde vurguladığı gibi, müşterilere 2.5D/3D paket çözümleri sunuluyor). Yeni malzemeler konusunda, transistörlerde silikonun ötesine geçiş sinyalleri var: IBM ve Samsung 2021’de 2 nm’de nanosheet transistörleri duyurdu, TSMC 2025 sonrasında nanochip veya GAAFET mimarisine geçeceğini belirtti. 2030 civarında bu yeni transistör tipleri yaygın olacak ve belki de grafen, karbon nanotüp gibi malzemeler Ar-Ge’den ürüne geçecek. Örneğin Stanford ve MIT araştırmacıları karbon nanotüp transistörlü basit CPU prototipleri göstermişti; bu teknoloji yetişirse 2030’larda silikon transistörlerin limitlerini aşabilir.
- Pazar ve Rekabet Dinamikleri: Teknoloji projeksiyonlarının yanında işin pazar boyutu da önemli. 2030’a doğru yarı iletken sektörünün odağı AI ve veri merkezi olacak gibi görünüyor. McKinsey gibi analistler, AI donanım pazarının toplam yarı iletken pazarının yarısını aşacağını öngörüyor. Bu da NVIDIA, AMD, Intel gibi firmaların yanı sıra Google, Amazon gibi bulut devlerinin ve hatta Tencent, Alibaba gibi Asya oyuncularının bu pazarda söz sahibi olma mücadelesine gireceği anlamına geliyor. Sonuçta pastanın büyüklüğü trilyon dolarları bulabilir. NVIDIA mevcut liderliğini korumaya çalışacak; Grace CPU hamlesi gibi adımlarla tüm veri merkezini kapsayan bir tedarikçi olma amacında. AMD, özellikle açık ekosistem ve fiyat avantajı ile NVIDIA karşısında alternatif olmaya çalışacak – başarılı olursa çok büyük kazanç elde edebilir. Intel için gelecek daha kritik: eğer AI çağında da önemli bir oyuncu olmayı başarırsa yeniden yükseliş yakalayabilir, aksi halde CPU hakimiyeti eridiği için pazar payı ve etki gücü azalabilir. Bu belirsizlikler nedeniyle uzmanlar, önümüzdeki yıllarda sektörde birleşme ve satın almaların devam edebileceğini belirtiyor (örneğin Intel’in ASIC işinde zorlanması durumunda bir AI çip şirketini satın alması gibi). Ayrıca büyük bulut şirketleri, kendi özel çiplerini tasarlamaya devam ettikçe (AWS’nin Trainium’u, Google TPU vs.), geleneksel yarı iletken firmaları ile müşterileri arasındaki çizgi de bulanıklaşacak. 2030’a gelindiğinde tüm bu dinamikler sonucunda birkaç kazanan şirket semikonduktör pazarının büyük kısmını kontrol edecektir – analistler NVIDIA, TSMC, ve Broadcom gibi birkaç ismi şimdiden bu “Trilyon Dolarlık Kulüp” için en güçlü adaylar olarak işaret ediyor.
Özetle, 2025-2035 döneminde CPU ve GPU teknolojileri daha entegre, daha özel ve daha güçlü hale gelecek. Bilgisayar mimarisi, heterojenliği kucaklayarak her iş yüküne uygun birimler sunmaya doğru evriliyor. Kullanıcı tarafında bu gelişmeler, daha akıllı yapay zekâ uygulamaları, daha gerçekçi grafikler, daha hızlı hesaplamalar olarak yansıyacak. Ancak bu ilerlemenin sürdürülebilir olması için enerji ve üretim tarafındaki zorlukların da yenilikçi çözümlerle aşılması gerekecek. Önümüzdeki on yıl, belki de bilgisayar mimarisi alanında son 50 yılın en heyecan verici ve dönüşümsel dönemi olmaya aday.
10. Bireysel ve Kurumsal Yatırımcılar için Fırsatlar ve Riskler
CPU ve GPU teknolojilerindeki hızlı gelişim, yatırımcılar için hem büyük fırsatlar hem de dikkat edilmesi gereken riskler barındırıyor. Bireysel yatırımcılar (örneğin hisse senedi yatırımcıları) ve kurumsal yatırımcılar (şirketler veya fonlar) açısından bu alandaki dinamikleri ayrı ayrı ele alabiliriz:
Fırsatlar:
- Pazar Büyümesi: Yapay zekâ ve yüksek performanslı bilgi işlem talebi patlama yaşıyor. GPU odaklı AI hızlandırıcı pazarı 2024’te yaklaşık $150 milyar seviyesine ulaştı ve 2030’a kadar $300–400 milyar bandına çıkması bekleniyor. Bu, sektörde faaliyet gösteren şirketlerin gelirlerinde güçlü bir büyüme potansiyeli anlamına geliyor. Örneğin NVIDIA son birkaç yılda AI talebi sayesinde rekor gelir artışları elde etti (2024 mali yılında veri merkezi gelirini %142 artırarak $115 milyara çıkardı). Bireysel yatırımcılar için bu alandaki lider şirketlerin hisseleri (NVIDIA, AMD, hatta CPU tarafında yeni hamleler yapan Intel veya Apple) uzun vadede büyüme fırsatı sunabilir. Benzer şekilde kurumsal tarafta, bulut hizmeti sunan şirketler GPU altyapısına yatırım yaparak artan AI taleplerini karşılayıp kârlılıklarını yükseltebilirler. Erken davranıp GPU çiftlikleri kuran bulut sağlayıcıları, müşterilere gelişmiş AI hizmetleri sunarak pazarda avantaj kazanabilir.
- Teknolojik Sıçramalar: Yeni mimariler ve ürünler devrimsel performans artışları getirebilir. Örneğin AMD’nin MI300 APU’su veya NVIDIA’nın Grace Hopper platformu başarılı olursa, bu şirketlerin piyasa değerine olumlu yansıyacaktır. Apple, kendi çiplerini geliştirerek Mac ürünlerinde hem maliyet avantajı hem performans farklılaşması yakaladı ki bu, Mac satışlarına pozitif etki etti. Bu tür teknolojik atılımlar yatırımcılar için katma değer yaratır. Ayrıca sektör genelinde yarı iletken üreticilerine (TSMC, ASML gibi) yönelik talep de artıyor – bu şirketlere yatırım yapmak da dolaylı bir fırsat olabilir, zira AI çip patlaması onların sipariş defterlerini dolduruyor.
- Çeşitlendirme ve Yeni Pazarlar: CPU ve GPU üreticileri artık otomotiv, sağlık, endüstriyel IoT gibi alanlara da güçlü giriş yapıyor. Örneğin NVIDIA, otomotiv AI sistemlerinde ve robotik uygulamalarda ciddi bir potansiyele sahip. AMD, Xilinx satın alımıyla 5G altyapı ve gömülü sistem pazarlarına adım attı. Bu yeni pazarlar, şirketlerin toplam adreslenebilir pazarını büyüttüğü için yatırımcılar açısından uzun vadeli büyüme hikayelerini destekliyor. Bireysel yatırımcılar portföylerinde bu şirketlere yer vererek farklı sektörlere dolaylı yatırım yapmış oluyor. Kurumsal yatırımcılar (örneğin bir fabrika kuracak şirket) için de GPU’lar sayesinde otomasyon ve verimlilik artışı fırsatı var – daha akıllı üretim hatları, gerçek zamanlı veri analitiği gibi konulara yatırım yapmak rekabet avantajı sağlayabilir.
- Rekabet Ortamı (Alternatiflerin Yükselişi): Büyük fotoğrafta, yapay zekâ devrimi sadece klasik yarı iletken firmalarına değil, kendi çipini geliştiren yazılım devlerine de fırsat yarattı. Örneğin Google, TPU ile hem maliyetlerini düşürdü hem de AI araştırmalarında liderlik elde etti. Amazon, AWS için Trainium/Inferentia geliştirerek müşterilerine daha düşük maliyetli AI hizmeti sunma avantajı yakalıyor. Bu tür hamleler, bulut şirketlerinin kâr marjlarını iyileştirebilir (AWS Inferentia tabanlı hizmetlerin GPU tabanlılara göre %40 maliyet avantajı olduğu raporlandı). Dolayısıyla kurumsal yatırımcılar için kendi özel silikonunu geliştirmek veya doğru iş ortaklarına yatırım yapmak, uzun vadede maliyetleri düşürerek ciddi tasarruf ve kontrol sağlayabilir.
Riskler:
- Rekabet ve Tekelleşme Riski: Yatırımcılar için en bariz risk, bu alandaki yoğun rekabetin kazananı doğru tahmin edememektir. Örneğin GPU pazarında NVIDIA şu an baskın olsa da, AMD veya yeni ortaya çıkan bir özel çip (örneğin bir bulut sağlayıcının ASIC’i) belirli segmentlerde pazar payını çalabilir. NVIDIA’nın muazzam bir ekosistem kilidi (CUDA gibi) avantajı olsa da, büyük müşteriler maliyet avantajı için farklı çözümleri deniyor. Google’ın TPU hamlesi veya Tesla’nın kendi otonom sürüş çipini yapması gibi örnekler, NVIDIA için uzun vadede risk oluşturuyor. Eğer bu alternatifler beklenenden başarılı olursa, şu an yüksek değerlemelerde olan bazı şirketlerin büyüme hikayeleri sekteye uğrayabilir. Bireysel yatırımcı açısından, geleceğin kazananını yanlış belirlemek hisse senedi tarafında kayıplara yol açabilir. Kurumsal yatırımcı (örneğin bir şirketin CTO’su) açısından ise yanlış mimariye aşırı yatırım yapmak risklidir – eğer tüm yatırımı GPU’ya yapıp birkaç yıl sonra TPU benzeri çözümler baskın çıkarsa, eldeki donanımın rekabet gücü azalabilir.
- Döngüsellik ve Talep Dalgalanmaları: Yarı iletken sektörü tarihsel olarak döngüsel bir seyir izler. 2017–2018’de kripto para madenciliği için GPU talebi patlamış, sonra ani bir düşüş yaşanmış ve NVIDIA gibi şirketlerin hisseleri sert dalgalanmıştır. Benzer şekilde 2021–2022’deki AI patlaması sonsuza dek lineer gitmeyebilir. Ekonomik durgunluk, bulut harcamalarında kesinti veya AI ilerlemesinde beklenmedik bir yavaşlama, GPU taleplerini geçici de olsa düşürebilir. Böyle bir durumda aşırı stok birikimi ve fiyat düşüşleri yaşanabilir (2022 öncesi GPU kıtlığı sonrası 2023’te bazı segmentlerde envanter sorunları görüldü). Bireysel yatırımcılar için bu dalgalanmalar kısa vadede kayıplara yol açabilir; yüksek zirvelerden alınan hisseler düzeltmelerde değer kaybedebilir. Kurumsal tarafta da planlama yaparken bu dalgalanmalar göz önüne alınmalı – örneğin bir şirket tüm veri merkezini bir anda GPU’ya boğar ve sonra talep düşerse atıl kapasite oluşabilir. Bu nedenle ölçeklendirme ve aşamalı yatırım önemli olacak.
- Tedarik Zinciri ve Jeopolitik Riskler: CPU/GPU teknolojileri oldukça karmaşık bir küresel tedarik zincirine dayanıyor. Örneğin en gelişmiş GPU’lar neredeyse tamamen TSMC’de üretiliyor. Eğer jeopolitik bir gerilim Tayvan’da üretimi aksatırsa, NVIDIA ve AMD gibi şirketler ürünlerini üretmekte zorlanır ve piyasada kıtlık ile fiyat artışları yaşanır (ya da bu şirketlerin finansalları darbe alır). Ayrıca ABD-Çin arasındaki teknoloji kısıtlamaları, yüksek teknoloji çiplerin belirli bölgelere satışını engelliyor; bu da potansiyel pazar kaybı demek. Yatırımcılar için bu riskler dikkatle izlenmeli. Örneğin 2022’de ABD hükümeti, NVIDIA’nın A100 ve H100 gibi üst düzey GPU’larının Çin’e ihracatını kısıtladı – NVIDIA bu engeli aşmak için biraz kırpılmış A800 gibi modeller sunsa da, uzun vadede Çin pazarındaki fırsatlar sınırlanabilir. Bu tür dışsal riskler, şirket hisselerinde oynaklık yaratıyor. Kurumsal düzeyde de bir şirketin hayati AI projeleri tek bir tedarikçiye (örneğin sadece TSMC üretimine) bağımlıysa, olası aksaklıklarda iş sürekliliği riske girer. Bu nedenle risk dağıtmak için çoklu tedarik stratejileri veya stok planlamaları gündeme geliyor.
- Ar-Ge ve Sermaye Yatırım Maliyetleri: İşlemci rekabeti devam ettikçe Ar-Ge harcamaları ve sermaye yatırımları muazzam boyutlara ulaşıyor. Örneğin Intel, üretim teknolojisinde geri kalmamak için önümüzdeki yıllarda fab kapasitesine on milyarlarca dolar yatırım planlıyor; NVIDIA ve AMD, her yeni mimari için artan mühendislik maliyetlerine katlanmak zorunda. Bu durum, kârlılık üzerinde baskı oluşturabilir. Eğer bir şirket çok para harcayıp beklediği teknolojik sıçramayı elde edemezse (örneğin Intel’in 7nm gecikmeleri gibi), yatırımcılar için olumsuz sonuç doğurur. Bireysel yatırımcılar, şirketlerin Ar-Ge verimliliğini ve teknoloji yol haritalarını yakından takip etmeli. Kurumsal tarafta ise yüksek maliyetli donanım yatırımı yaparken gelecekteki getiri dikkatlice hesaplanmalı. Örneğin bir banka, AI hızlandırıcılarla donattığı bir veri merkezine yüz milyonlarca dolar harcayacaksa, bunun net kazancını (daha iyi müşteri hizmeti, daha hızlı analiz vs.) gerçekçi projeksiyonlarla değerlendirmeli; aksi halde overinvestment riski oluşur.
Sonuç olarak, CPU ve GPU dünyasındaki gelişmeler yatırımcılar için çift yönlü bir kılıç gibidir. Bireysel yatırımcılar için en büyük fırsat, AI devriminin kazananlarına ortak olabilmektir – doğru şirketleri portföye katmak muazzam getiriler sağlayabilir. Ancak sektörün doğasını, döngüselliğini ve rekabet dinamiklerini anlamak şarttır; aksi halde hype’a kapılıp zirvelerden alım yapmak sık yapılan bir hata olabilir. Kurumsal yatırımcılar (şirketler) açısından ise yeni teknolojiye yatırım yapmak rekabetçi kalmak için zorunlu hale geliyor; GPU’lar ve AI hızlandırıcılar birçok sektörde “oyunun kurallarını” değiştirmekte. Burada fırsat, bu teknolojileri benimseyip ürün/hizmet kalitesini ve verimliliği artırarak pazar payı kazanmaktır. Örneğin bir sağlık teknolojisi şirketi, GPU destekli görüntü işleme ile rakiplerinden daha iyi teşhis araçları sunabilir ve pazarda öne çıkabilir. Lakin risk tarafında, yanlış teknolojiye yığınla para gömmek veya ekonomik getirisini doğru hesaplayamamak var. Bu nedenle her iki yatırımcı türü için de dikkatli analiz, çeşitlendirme ve uzun vadeli bakış açısı hayati önem taşıyor.
Sonuç itibarıyla, CPU ve GPU teknolojilerinin bugünü ve yarını hem teknolojik hem finansal açıdan son derece heyecan verici. Bu alandaki fırsatları yakalamak isteyen yatırımcılar için bilgiye dayalı karar almak ve değişime hızlı adapte olmak başarı anahtarı olacaktır. Teknoloji şirketleri cephesinde ise inovasyon hız kesmeden sürüyor – önümüzdeki yıllarda kazananlar, sadece en güçlü işlemcileri üretenler değil, aynı zamanda bu ekosistemi sürdürülebilir ve kârlı kılabilenler olacak diyebiliriz.
Kaynaklar:
- intel.comintel.com Intel, “CPU vs. GPU: What’s the Difference?” – Intel’in mikroişlemci tarihi ve CPU/GPU mimari farkları üzerine resmi bilgilendirme sayfası (2021).
- en.wikipedia.org Wikipedia (IBM POWER mikroişlemcileri) – IBM POWER4’ün 2001’de tanıtılan ilk çift çekirdekli mikroişlemci olduğu bilgisi.
- dev.todev.to Dev.to, “Why CPU was not enough: Need for GPU in the picture of AI” – GPU’ların tarihçesi (1980’ler, 1990’lar, 2006 CUDA) ve yapay zekâ eğitiminde paralel işleme avantajı.
- en.wikipedia.org Wikipedia (Graphics Processing Unit) – NVIDIA’nın 1999’da GeForce 256’yı “dünyanın ilk GPU’su” olarak pazarlaması ve donanım T&L desteği.
- en.wikipedia.org Wikipedia (Graphics Processing Unit) – 2000’lerin ortalarında GPU’ların genel amaçlı hesaplamalarda (GPGPU) kullanılmaya başlanması ve çeşitli uygulama alanları.
- blog.purestorage.com Pure Storage Blog, “GPUs vs. FPGAs: What’s the Difference?” – GPU’ların başlangıçta video ve grafik işlemek için tasarlandığı, paralel yapıları sayesinde sonradan derin öğrenmede popüler hale geldiği vurgusu (2023).
- intel.com Intel, “CPU vs. GPU: What’s the Difference?” – CPU’ların düşük gecikme ve tekil görev performansı gerektiren işlerde (web gezintisi, veritabanı vb.) nasıl kritik olduğu açıklaması.
- intel.com Intel, aynı kaynak – GPU’ların oyun sırasında grafik render etme ve video işleme gibi yüksek paralel görevlerde uzmanlaştığı ifadesi.
- intel.com Intel, aynı kaynak – CPU’lara entegre edilen yapay zekâ hızlandırıcı birimleri (NPUs) ve CPU+GPU birlikteliğinin AI çıkarımında gelecekte oynayacağı rol hakkında bilgi.
- iot-analytics.com IoT Analytics, “Leading Generative AI Companies (2024)” – NVIDIA’nın 2024 itibarıyla veri merkezi GPU pazarının %92’sine sahip olup yıllık veri merkezi gelirini $115 milyara çıkardığı analizi.
- blogs.nvidia.com NVIDIA Blog, “What’s Up? Watts Down — More Science, Less Energy” – NERSC’de GPU hızlandırmalı sistemin CPU’lu sisteme göre aynı işi ayda 588 MWh daha az tüketerek yapabildiğine dair sonuç (Mayıs 2023).
- en.wikipedia.org Wikipedia (Performance per watt) – GPU’ların yüksek performans uğruna güç tüketimini artırdığı, bu nedenle güç yönetimi tekniklerinin kritik olduğu değerlendirmesi.
- en.wikipedia.org Wikipedia (Performance per watt) – İşlemci üretiminin yaşam döngüsü enerji maliyetlerine ve çevresel etkiye katkısı (üretim, dağıtım ve geri dönüşüm aşamalarının önemi).
- mitsloan.mit.edu MIT Sloan, “AI has high data center energy costs — but there are solutions” – Yapay zekâ etkisiyle 2030’da veri merkezlerinin küresel enerji talebinin %21’ine kadar çıkabileceği uyarısı (2023).
- nvidianews.nvidia.com NVIDIA Press Release, “NVIDIA Announces CPU for Giant AI and HPC Workloads” – CEO Jensen Huang’ın Grace CPU’yu tanıtırken NVIDIA’nın artık CPU, GPU ve DPU ile “üç sacayağı”na sahip olduğunu ve veri merkezini yeniden şekillendirme kabiliyeti kazandığını belirten açıklaması (2021).
- exxactcorp.com Exxact Corp Blog, “Intel ARC GPU News” – Intel’in uzun bekleyişten sonra Arc A770 ekran kartını Ekim 2022’de $329 başlangıç fiyatıyla piyasaya sürüp ana akım GPU pazarına girişini anlatan haber.
- exxactcorp.com Exxact Corp Blog, aynı kaynak – Intel’in Ponte Vecchio HPC GPU’sunun 47 yonga ile 128 GB HBM2e bellek içerdiği ve birkaç kez ertelendiği bilgisi, bu GPU’nun aşırı karmaşıklığı vurgusu (2022).
- The Register, “AMD’s AI strategy comes into view…” – AMD CEO Lisa Su’nun 2022 Analyst Day konuşmasında, eğitimsizinden uca her pazara hitap eden geniş AI yol haritası vizyonunu ve bunun AMD’nin tüm ürün portföyüne dayandığını söylemesi.
- amd.com AMD Press Release, “AMD Acquires Xilinx…” – AMD’nin Xilinx’i satın alarak “yüksek performanslı ve uyarlanabilir bilişim lideri” kimliğini vurguladığı resmi açıklama (Şubat 2022).
- apple.com Apple Newsroom, “Apple unleashes M1” – Apple’ın M1 çipinin, önceki nesil Mac’lere göre CPU performansını 3.5 kat, GPU performansını 6 kat artırdığı ve 2 kat pil ömrü sağladığı ifadesi (2020).
- tomshardware.com Tom’s Hardware, “Interview: TSMC’s Kevin Zhang on evolving demands” – TSMC’nin 2025 vizyonunda farklı müşteri segmentleri için özelleştirilmiş ileri üretim teknolojileri sunarak “tek beden herkese uymaz” yaklaşımından, amaca özel düğümlere ve paketleme çözümlerine geçiş yapacağını belirtmesi (Mayıs 2025).
- tomshardware.com Tom’s Hardware, aynı röportaj – TSMC’nin 3DFabric portföyüyle mobil için InFO, AI/HPC için CoWoS (2.5D), istemci ve veri merkezi için SoIC (3D) ve hatta wafer-scale entegrasyon sunarak müşterilerin IP’lerini yeniden kullanabilmelerini sağladığı açıklaması.
- chipsandcheese.com Chips and Cheese, “Grace Hopper: Nvidia’s Halfway APU” – AMD’nin Frontier süperbilgisayarında MI250X GPU’ları özel bir EPYC CPU ile Infinity Fabric üzerinden bağlayarak çalıştırdığı, NVIDIA’nın da NVLink ile benzer yüksek hızlı CPU-GPU ara bağlantısına yöneldiği analizi (Temmuz 2024).
- chipsandcheese.com Chips and Cheese, aynı makale – NVIDIA’nın Grace Hopper (GH200) modülünün, mobil Tegra örneğinden farklı olarak yüksek performanslı bir Arm CPU’yu en üst seviye H100 GPU ile eşleştirerek HPC alanına CPU entegre etme girişimi olduğu yorumu.
- amd.com AMD Community Blog, “Introducing Instinct MI300 Series” – AMD Instinct MI300A APU’sunun 3 adet “Zen 4” CPU kalıbı ile 6 adet CDNA3 GPU kalıbını tek bir sanal/ fiziksel bellek havuzunu paylaşacak şekilde entegre ederek hiper ölçekli bir APU oluşturduğu bilgisi (2023).
- theregister.com The Register, “Google pulls back curtain on TPU v4” – Google TPU v4’ün benzer ölçekli NVIDIA A100 sistemine kıyasla 1.2–1.7 kat hızlı ve 1.3–1.9 kat enerji tasarruflu olduğunun, Google & UC Berkeley araştırmacıları tarafından yayımlanan bir makalede belirtildiği haberi (Nisan 2023).
- intel.com Intel, “FPGA vs. GPU for Deep Learning” – Microsoft’un 2010’da Bing arama motoru için FPGA’lerle ilk derin öğrenme hızlandırma örneklerinden birini gerçekleştirdiği ve 2015’te Bing’in FPGA’lerle arama sıralamasını hızlandırarak %50 daha fazla throughput elde ettiği bilgisinin aktarıldığı teknik makale.
- intel.com Intel, aynı kaynak – FPGA’lerin düşük gecikme ve düşük batch gerektiren uygulamalarda GPU’lara performans avantajı sağlayabildiği; örnek olarak konuşma tanıma gibi gerçek zamanlı AI görevlerinde FPGA’lerin tercih edilebildiği vurgusu.
- aws.amazon.com AWS Silicon Innovation page – AWS’in kendi özel yongalarıyla sağladığı fiyat/performans avantajlarını belirttiği sayfadan: Graviton tabanlı instansların muadil x86’ya göre %40 daha iyi fiyat/performans; Inferentia tabanlı Inf1 instansların benzer GPU instanslarına göre %70 daha düşük çıkarım maliyeti sağladığı ifadesi (2023).
- semiengineering.comsemiengineering.com SemiEngineering, “2030: Trillion Dollar AI Chip Winners” – Sektör danışmanı Geoff Tate’in analizi: 2030’da NVIDIA’nın ürettiği ARM tabanlı CPU+GPU sistemlerinin sevkiyat açısından x86 CPU’ları geçmesinin beklendiği ve yapay zekâ hızlandırıcı talebinin yarı iletken pazarının >%50’sini oluşturacağı öngörüsü (2025).
- theregister.com The Register, “Supercomputers in 2030” – Intel’den Al Gara’nın 2016 ISC konferansında yaptığı sunumda, 2012’deki 20 PFLOP’luk Sequoia süperbilgisayarını referans alarak 2022’de 2 EFLOP (100 kat artış), 2026’da 20 EFLOP ve 2030’da 100 EFLOP sistemlere ulaşılacağını öngördüğü bilgisi.
- semiengineering.com SemiEngineering, aynı makale – Veri merkezi GPU’larının 1 kW’ı aştığı bir ortamda 48V güç mimarisi ve gelişmiş güç yönetim yongalarının önem kazandığı, AI raflarında güç dağıtımının karmaşıklaştığı tespiti.
- theregister.com The Register, aynı makale – 2030’da hala DRAM’in temel bellek teknolojisi olacağı ama paketlemeyle işlemcilere daha yakın konumlandırılacağı; optik ara bağlantı (silicon photonics) teknolojisinin maliyetini düşürüp ana akıma girebileceği ve bant genişliği ihtiyacını karşılamaya yardımcı olacağı öngörüsü.
- semiengineering.com SemiEngineering, aynı makale – 2030’a doğru yapay zekâ altyapı pazarının birkaç dev şirkette yoğunlaşacağı; ölçeklenemeyen veya birleşmeyen yarı iletken firmalarının bu devler tarafından satın alınabileceği ya da geride kalacağı uyarısı.
- semiengineering.com SemiEngineering, aynı makale (farklı bölüm) – 2024 itibarıyla AI hızlandırıcı (GPU/ASIC) pazarı yıllık $150B büyüklüğe ulaşmış olup 2030’da $300-400B aralığına büyümesinin beklendiği istatistiği.
- vestedfinance.com Vested Finance Blog – AWS’in Inferentia tabanlı AI yongalarının NVIDIA GPU’larına kıyasla çıkarım maliyetini %40 düşürebildiği ve Anthropic gibi müşterilerin bu yüzden tercih ettiği aktarımı (2023).
- semiengineering.com SemiEngineering, aynı makale – TSMC’nin neredeyse tüm yüksek değerli veri merkezi işlemcilerini üretme kapasitesine sahip olduğu; ancak AI talebinin TSMC kapasitesini bile aşabileceği, dolayısıyla Samsung ve Intel Foundry hizmetlerine de ihtiyaç duyulabileceği analizi.
- ainvest.com AInvest, “Nvidia’s Stock Slump: Dip Opportunity or Risk?” – 2024 sonunda NVIDIA hisselerinin tepe noktasından %30’dan fazla düşmesi üzerine yatırımcı değerlendirmesi; gaming segmentindeki dalgalanmaların hisse risk profiline etkisi (2025).
- Morningstar (via Nasdaq) – NVIDIA’nın tahminine göre veri merkezi GPU’larının %40’ının yapay zekâ çıkarım (inference) yüklerinde kullanıldığı ve bunun olumlu bir gelişme olduğu, zira çıkarım pazarının eğitimden daha geniş olacağının düşünülmesi (2023).
- en.wikipedia.org Yahoo Finance – NVIDIA hissesi üzerine analiz: Şirketin geçmişte volatil bir talep döngüsü yaşadığı (özellikle oyun/kripto döngüsü) ve kısa vadede risklerin bulunduğu, ancak uzun vadede AI liderliğiyle cazip olabileceği yorumu (2025).
📌 Yasal Uyarı:
Bu içerikte yer alan bilgi, yorum ve değerlendirmeler yatırım danışmanlığı kapsamında değildir. Burada adı geçen şirketler ve finansal enstrümanlar yalnızca genel bilgilendirme amacıyla sunulmuştur. Her yatırım kararı, bireylerin kendi finansal koşulları ve risk profili doğrultusunda değerlendirilmelidir. Lütfen yatırım yapmadan önce lisanslı bir uzmandan danışmanlık alınız.
📌 Önerilen Araçlar:
Yatırımlarınızı daha sağlam planlamak istiyorsanız, sitemizdeki hesaplama araçlarını mutlaka inceleyin.
📈 Temettü Hesaplama Aracı ile gelecekteki birikiminizi projekte edebilir,
💸 Eurobond Getiri Hesaplayıcısı sayesinde de kupon, vade ve faiz bilgilerine göre net getirinizi görebilirsiniz.