{"course":{"updated_at":"2025-08-27T15:32:47.006352+00:00","title":{"tr":"Data Science (Veri Bilimi)"},"duration_hours":48,"available_as_corporate":true,"cover_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/fdbc2ee0-22e0-46ac-a4f3-8ecae60d3d11.png","order":49,"deleted_at":null,"duration_days":null,"video_conference_link":null,"hidden":false,"category_id":null,"short_title":{"tr":null},"level":null,"bogazici_link":null,"cover_image_x":50,"suggested_next_course_id":null,"id":16,"slug":{"tr":"data-science-veri-bilimi"},"schedule_info":null,"available_as_personal":true,"cover_image_y":50,"summary":{"tr":null},"bogazici_collab":false,"is_workshop":false,"corporate_cover_image_url":null,"lesson_count":0,"sidebar_copy":{"tr":null},"price_try":2000000,"has_lessons":false,"corporate_cover_image_x":50,"created_at":"2025-04-21T14:42:54.026429+00:00","description":{"tr":[{"type":"text","title":"Kurs Açıklaması","content":"<p>Günümüzün dijital ekosisteminde verinin üretim hızı ve çeşitliliği hızla artıyor. İşletmeler, bu devasa veri yığınlarını stratejik içgörülere ve aksiyon alınabilir analizlere dönüştürerek rekabet avantajı elde etmeye çalışıyor. Bu kapsamlı eğitim kampı, temel veri bilimi ve büyük veri teknolojilerinden derin öğrenmeye, bulut tabanlı büyük veri işleme araçlarından MLOps uygulamalarına kadar uzanan geniş bir müfredat sunuyor. Python programlama temelleriyle başlayan eğitim; NumPy, Pandas gibi kritik kütüphanelerde ustalaşmayı, SQL ve API entegrasyonlarını, keşifsel veri analizini (EDA) ve gelişmiş özellik mühendisliğini kapsayan pratik uygulamalarla devam ediyor.</p><p>Yapay öğrenme alanında; denetimli ve denetimsiz makine öğrenimi, derin öğrenme (PyTorch/TensorFlow), bilgisayarlı görü (CNN, transfer learning), doğal dil işleme (transformer mimarileri, LLM’ler) ve generative modeller (GAN, Diffusion) gibi en güncel tekniklere derinlemesine değiniliyor. Büyük ölçekli verilerin yönetimi ve işlenmesi için Spark, Airflow, veri ambarları/veri gölleri gibi modern data engineering araç ve mimarileri inceleniyor. Eğitilen modellerin üretim ortamına alınması, izlenmesi ve yönetilmesini sağlayan MLOps prensipleriyle katılımcılar, uçtan uca bir veri projesinin tüm yaşam döngüsünü deneyimliyor.</p><p>Kariyerlerinde fark yaratmak isteyen profesyoneller ile veri bilimi ve büyük veri alanına sağlam bir başlangıç yapmayı hedefleyenler için tasarlanan bu program; teorik altyapıyı pratik projelerle, laboratuvar çalışmalarıyla ve bitirme projesiyle birleştirerek kapsamlı bir öğrenme deneyimi sunuyor.</p>"},{"type":"text","title":"Kursun Amacı","content":"<p>Bu eğitim, “veriyi bilgiye, bilgiyi aksiyona” dönüştürebilecek uzman veri bilimciler ve veri analitiği profesyonelleri yetiştirmeyi hedefliyor. Program sonunda katılımcıların:</p><ul><li><strong>Python ile Veri Bilimi Temellerine Hakim Olması:</strong> Veri analizi ve modellemeye yönelik kodlama becerilerini, NumPy ve Pandas gibi kütüphanelerle pekiştirmesi</li><li><strong>Veri Yönetimi ve Mühendisliği Süreçlerini Yürütmesi:</strong> SQL, API, web scraping ve büyük veri ekosistemindeki modern araçlarla veri toplama, temizleme ve dönüştürme iş akışlarını kurabilmesi</li><li><strong>Keşifsel Veri Analizi ve Görselleştirme Kabiliyeti Geliştirmesi:</strong> İstatistiksel yöntemlerle verilere içgörü kazandırıp, Matplotlib, Seaborn ve Plotly gibi kütüphanelerle sonuçları etkili biçimde sunabilmesi</li><li><strong>Gelişmiş Özellik Mühendisliği ve Modelleme Becerilerine Sahip Olması:</strong> Denetimli/denetimsiz makine öğrenimi, ensemble yöntemler, derin öğrenme, bilgisayarlı görü ve NLP alanlarında pratik deneyim elde etmesi</li><li><strong>Büyük Veri ve Dağıtık İşleme Platformlarını Kullanmaya Başlaması:</strong> Apache Spark, veri ambarları/gölleri ve orkestrasyon araçlarıyla büyük ölçekli verileri yönetip analiz edebilmesi</li><li><strong>MLOps Prensipleriyle Model Dağıtımı ve Yönetimi Yapabilmesi:</strong> Model sürümleme, konteynerleştirme, CI/CD, deney ve performans izleme gibi uçtan uca süreci kavraması</li><li><strong>Etik, Açıklanabilirlik ve Nedensel Analiz Bilinci Geliştirmesi:</strong> Yapay öğrenme modellerindeki önyargıları azaltma, şeffaflığı sağlama ve nedensel ilişkileri anlama konularında yetkinleşmesi</li><li><strong>Profesyonel Portföy ve Kariyer Hazırlığını Tamamlaması:</strong> Bitirme projesi, sahte mülakat oturumları, özgeçmiş hazırlığı ve networking desteğiyle veri bilimi kariyerine güçlü bir adım atması</li></ul><p>Kurs sonunda katılımcılar, veri bilimi ve büyük veri ekosistemini uçtan uca uygulayabilecek düzeye gelecek; farklı sektörlerdeki (finans, sağlık, teknoloji, perakende vb.) zorlu veri problemlerini çözmeye hazır, kapsamlı bir bilgi birikimine sahip olacaklardır.</p>"}]},"discount_try_percentage":null,"show_price":false,"corporate_cover_image_y":50,"sections":{"tr":[{"title":"Bootcamp Hazırlığı & Ortam Kurulumu","summary":"<p>Ortak bir teknik temel oluşturmak için hazırlık.</p><ul><li><strong>Geliştirme Ortamının Kurulumu:</strong><ul><li>Python kurulumu (Anaconda dağıtımı önerilir)</li><li>Conda ortamları ile bağımlılık yönetimi</li><li>Entegre geliştirme ortamı kurulumu ve yapılandırması (VS Code önerilir)</li></ul></li><li><strong>Komut Satırı Arayüzü (CLI) Temelleri:</strong><ul><li>Dizinlerde gezinme (cd, ls/dir, pwd)</li><li>Dosya manipülasyonu (cp, mv, rm, mkdir)</li><li>Temel komut çalıştırma</li></ul></li><li><strong>Git &amp; GitHub ile Versiyon Kontrolü:</strong><ul><li>Repository, commit, branch, merge, pull request kavramları</li><li>Yerel Git kurulumu ve GitHub hesabı oluşturma</li><li>Temel komutlar: git clone, git add, git commit, git status, git push, git pull, git branch, git checkout, git merge</li></ul></li></ul><p><strong>Lab Session:</strong></p><p>Python/Conda kurulumunu doğrulama, temel CLI komutlarını uygulama ve GitHub üzerinde tam bir Git iş akışını (repo klonlama, değişiklik yapma, commit etme, push etme) gerçekleştiren egzersizler</p>"},{"title":"Python ile Veri Bilimi için Programlama","summary":"<h3>Python Temelleri Tekrarı &amp; Derinlemesine İnceleme</h3><p>Veri bilimi bağlamında temel Python kavramlarını pekiştirme.</p><ul><li>Python veri tipleri: int, float, str, bool, list, tuple, dict, set</li><li>Operatörler ve kontrol akışı (if/elif/else, for ve while döngüleri)</li><li>Fonksiyon tanımlama, argümanlar (args, kwargs), kapsam, lambda fonksiyonları</li><li>Nesne Yönelimli Programlama: sınıflar, nesneler, nitelikler, metotlar, kalıtım</li><li>Dosyalarla çalışma: metin ve CSV dosyalarını okuma/yazma</li><li>Dahili kütüphaneler: math, datetime, collections</li><li>Python standart pratikleri (PEP 8)</li></ul><h3>NumPy ile Sayısal Hesaplama</h3><p>Sayısal veri ve vektörleştirme tekniklerinde ustalaşmak.</p><ul><li>NumPy array (ndarray) oluşturma, indeksleme, dilimleme, veri tipleri</li><li>Vektörleştirme ve evrensel fonksiyonlar (ufuncs)</li><li>Temel matematiksel fonksiyonlar: sum, mean, std vb.</li><li>Lineer cebir: matris çarpımı ve nokta çarpımları</li><li>Yayınlama (broadcasting) prensipleri</li><li>Rastgele sayı üretimi</li></ul><h3>Pandas ile Veri Manipülasyonu</h3><p>Tablo verilerinin işlenmesi ve analizi.</p><ul><li>Pandas veri yapıları: Series ve DataFrame</li><li>Veri yükleme ve kaydetme (CSV, Excel, JSON, SQL)</li><li>İndeksleme &amp; seçim: loc, iloc, boolean indeksleme, indeks ayarlama</li><li>Veri temizleme: eksik değerler (dropna, fillna), yinelenen veriler</li><li>Veri dönüşümü: apply, map, astype, sütun yeniden adlandırma</li><li>DataFrame birleştirme: merge, join, concat</li><li>Gruplama ve toplama: groupby, toplama fonksiyonları (sum, mean, count, vb.)</li><li>Zaman serisi işlemleri: datetime özellikleri, yeniden örnekleme (resampling)</li></ul><p><strong>Lab Session:</strong></p><p>Birden çok veri setini alıp temizleme, birleştirme, özellik mühendisliği ve group-by toplamaları uygulama</p>"},{"title":"Veri Toplama & SQL Ustalığı","summary":"<h3>İlişkisel Veritabanları &amp; İleri Düzey SQL</h3><p>Veritabanı kavramları ve ileri düzey SQL sorguları.</p><ul><li>Temel kavramlar: tablolar, satırlar, sütunlar, birincil ve yabancı anahtarlar, şemalar, veri tipleri</li><li>SQL sorgulama: SELECT, FROM, WHERE, GROUP BY, HAVING, ORDER BY</li><li>İleri SQL teknikleri:<ul><li>JOIN'ler: INNER, LEFT, RIGHT, FULL OUTER, CROSS, self-join</li><li>Alt sorgular (subqueries)</li><li>Ortak Tablo İfadeleri (CTE'ler, WITH ifadesi)</li><li>Pencere fonksiyonları: OVER, PARTITION BY, ROW_NUMBER, RANK, DENSE_RANK</li><li>Veri tanımlama (DDL) ve manipülasyon (DML) komutları</li></ul></li></ul><h3>Python’u Veritabanlarına &amp; API’lere Bağlama</h3><p>Veritabanı ve web servislerinden veri çekme yöntemleri.</p><ul><li>Python’dan veritabanı bağlantısı: psycopg2, sqlite3, mysql-connector-python</li><li>SQLAlchemy ile ORM kullanımı</li><li>Sorgu çalıştırma ve sonuçların Pandas DataFrame’e aktarılması (pd.read_sql)</li><li>REST API’lerle etkileşim: HTTP metotları, requests kütüphanesi, JSON işleme</li><li>Kimlik doğrulama: API anahtarları, OAuth</li><li>Web scraping: HTML temel bilgileri, BeautifulSoup, etik hususlar (robots.txt)</li></ul><p><strong>Lab Session:</strong></p><p>PostgreSQL veritabanından sorgulama, canlı REST API’den veri çekme, verilerin tek bir DataFrame’de birleştirilmesi</p>"},{"title":"Keşifsel Veri Analizi (EDA) & Görselleştirme","summary":"<h3>EDA için İstatistiksel Temeller</h3><p>Veri özelliklerini anlamak için temel istatistik kavramları.</p><ul><li>Tanımlayıcı istatistikler: ortalama, medyan, mod, varyans, standart sapma, aralık, IQR</li><li>Olasılık dağılımları: Normal, Binom, Poisson, Üniform; PDF ve CDF</li><li>Çıkarımsal istatistik: popülasyon/örneklem kavramları, merkezi limit teoremi</li><li>Hipotez testi çerçevesi: p-değeri, güven aralığı, t-testi, ANOVA, Ki-kare testi</li></ul><h3>Veri Görselleştirme İlkeleri &amp; Araçları</h3><p>Veriyi etkili görselleştirme yöntemleri.</p><ul><li>Uygun grafik türlerinin seçilmesi: çubuk, çizgi, saçılım, histogram, kutu grafiği, ısı haritası</li><li>Matplotlib: figure, axes kavramları; grafik özelleştirme (etiket, başlık, lejant)</li><li>Seaborn: istatistiksel görselleştirme, Pandas entegrasyonu</li><li>Plotly: interaktif grafikler, yakınlaştırma, panolar</li><li>Mekansal görselleştirme: GeoPandas, Folium</li></ul><h3>Keşifsel Veri Analizi İş Akışı &amp; Hikaye Anlatımı</h3><p>Veriyi analiz etme ve içgörüyü aktarabilme süreci.</p><ul><li>Veri yükleme ve ilk inceleme: .info(), .describe(), .head()</li><li>Tek ve çift değişken analizi: dağılım, ilişkiler, korelasyonlar</li><li>Anomalilerin, trendlerin ve desenlerin belirlenmesi</li><li>EDA raporu oluşturma ve veri hikayesi anlatımı</li></ul><p><strong>Lab Session:</strong></p><p>Gerçek dünya veri seti üzerinde EDA gerçekleştirme; statik (Matplotlib, Seaborn) ve interaktif (Plotly) grafiklerle içgörü sunma</p>"},{"title":"Özellik Mühendisliği (Feature Engineering) & Seçimi","summary":"<h3>Veri Ön İşleme Teknikleri</h3><p>Ham veriyi modele hazırlama adımları.</p><ul><li>Eksik veri yönetimi: silme, ortalama/medyan/mod doldurma, regresyon, KNN</li><li>Kategorik değişken kodlama: one-hot, dummy, label encoding, ordinal encoding, target encoding, hashing trick</li><li>Özellik ölçeklendirme: standardizasyon (Z-skoru), normalizasyon (min-max), robust scaling</li><li>Aykırı değer tespiti ve müdahalesi</li></ul><h3>Özellik Oluşturma &amp; Dönüştürme</h3><p>Mevcut veriden yeni özellikler türetme yöntemleri.</p><ul><li>Etkileşim özellikleri oluşturma (çarpma, bölme gibi)</li><li>Polinom özellikler: doğrusal modeller için polinom terimleri üretme</li><li>Gruplama/ayrıklaştırma (binning)</li><li>Logaritmik, karekök ve Box-Cox dönüşümleri</li><li>Tarih/zaman özellik mühendisliği: yıl, ay, gün, hafta, süre hesaplamaları</li></ul><h3>Boyut Azaltma &amp; Özellik Seçimi</h3><p>Önemli bilgiyi koruyarak özellik sayısını azaltma.</p><ul><li>Curse of Dimensionality kavramı</li><li>PCA: temel bileşenler, bileşen sayısı seçimi</li><li>Özellik seçimi yöntemleri:<ul><li>Filtre yöntemleri (korelasyon, ANOVA, Ki-kare)</li><li>Wrapper yöntemler (Recursive Feature Elimination)</li><li>Gömülü yöntemler (Lasso, ağaç tabanlı yöntemler)</li></ul></li><li>Otomatik Özellik Mühendisliği kavramlarına giriş</li></ul><p><strong>Lab Session:</strong></p><p>Scikit-learn pipeline kurarak veri ön işleme, ölçeklendirme, kodlama ve özellik seçimi uygulaması</p>"},{"title":"Denetimli Öğrenme Temelleri","summary":"<h3>Temel Machine Learning Kavramları</h3><p>Model eğitimi ve değerlendirme ilkeleri.</p><ul><li>Denetimli, denetimsiz ve pekiştirmeli öğrenme genel bakışı</li><li>Veri bölme: train, validation, test setleri</li><li>Model eğitimi, tahmin ve değerlendirme</li><li>Bias-variance tradeoff, underfitting/overfitting</li><li>Model değerlendirme metrikleri:<ul><li>Sınıflandırma: accuracy, precision, recall, F1-score, ROC, AUC, log loss</li><li>Regresyon: MAE, MSE, RMSE, R²</li></ul></li><li>Çapraz doğrulama: K-fold, stratified K-fold, LOOCV</li><li>Hiperparametre ayarlama: Grid Search, Randomized Search</li></ul><h3>Temel Denetimli Algoritmalar</h3><p>Doğrusal ve doğrusal olmayan modellerin uygulanması.</p><ul><li>Linear Regression: model varsayımı, MSE, gradient descent</li><li>Logistic Regression: sigmoid, log loss, karar sınırı</li><li>K-Nearest Neighbors (KNN): mesafe metrikleri, k seçimi, boyut sorunları</li><li>Support Vector Machines (SVM): maximum margin, kernel (lineer, polynomial, RBF), hiperparametreler (C, gamma)</li><li>Decision Trees: özyinelemeli bölme, Gini impurity, entropy, budama, görselleştirme</li></ul><p><strong>Lab Session:</strong></p><p>Regresyon ve sınıflandırma veri setleri üzerinde modellerin uygulanması, çapraz doğrulama ve hiperparametre ayarlaması</p>"},{"title":"SOTA Ensemble Yöntemleri & Denetimsiz Öğrenme","summary":"<h3>Ensemble Learning Teorisi &amp; Teknikleri</h3><p>Ensemble yöntemlerinin çalışma mantığı ve uygulamaları.</p><ul><li>Bagging: Bootstrap aggregating, varyans azaltma, paralel eğitim<ul><li>Random Forests: ağaçlar, özellik alt örnekleme, Out-of-Bag hatası</li></ul></li><li>Boosting: sıra ile model oluşturma, bias azaltma<ul><li>AdaBoost, Gradient Boosting, XGBoost (regülarizasyon, ağaç budama, paralel işleme)</li><li>LightGBM: histogram tabanlı bölme, GOSS, EFB</li><li>CatBoost: ordered boosting, oblivious trees</li></ul></li><li>Stacking &amp; Blending: meta model kullanımı</li><li>AutoML kavramlarına giriş</li></ul><h3>Denetimsiz Öğrenme Teknikleri</h3><p>Etiket olmadan veri keşfi ve boyut azaltma yöntemleri.</p><ul><li>Kümeleme:<ul><li>K-Means: k seçimi, Elbow, Silhouette skoru</li><li>Hiyerarşik Kümeleme: dendrogramlar, linkage yöntemleri</li><li>DBSCAN: yoğunluk tabanlı, eps ve min_samples seçimi</li></ul></li><li>Kümeleme performans ölçümleri: Silhouette skoru, Davies-Bouldin indeksi</li><li>Boyut azaltma yöntemleri:<ul><li>PCA, t-SNE, UMAP</li></ul></li><li>Anomali/Aykırı değer tespiti:<ul><li>Isolation Forest, Local Outlier Factor, One-Class SVM</li></ul></li></ul><p><strong>Lab Session:</strong></p><p>Kaggle tarzı tablo veri seti üzerinde hiperparametre ayarlaması, kümeleme algoritmalarının uygulanması (PCA/t-SNE/UMAP görselleştirmeleri) ve anomali tespiti</p>"},{"title":"İstatistiksel Çıkarım & Bayesian Düşünceye Giriş","summary":"<h3>İleri İstatistiksel Çıkarım</h3><p>Daha titiz sonuçlar elde etmek için istatistiksel yöntemler.</p><ul><li>Hipotez testlerini derinlemesine inceleme: varsayımlar, yorumlama</li><li>Güven aralıkları oluşturma ve yorumlama</li><li>A/B Testing: tasarım, örneklem büyüklüğü, hipotez testleri, regresyona gerileme, çoklu test problemi</li><li>Güç analizi: istatistiksel güç ve örneklem hesaplamaları</li><li>Bootstrapping: ampirik örnekleme dağılımı tahmini</li></ul><h3>Zaman Serisi Analizine Giriş</h3><p>Zamana bağlı verilerde temel bileşenler ve modeller.</p><ul><li>Zaman serisi bileşenleri: trend, mevsimsellik, döngüsellik, gürültü</li><li>Zaman serisi ayrıştırma: additive vs. multiplicative modeller</li><li>Durağanlık: kavram, ADF testi, fark alma</li><li>Otokorelasyon (ACF) ve kısmi otokorelasyon (PACF)</li><li>Klasik modeller: AR, MA, ARMA, ARIMA</li></ul><h3>Bayesian Yöntemlere Giriş</h3><p>Bayesian akıl yürütme ilkeleri ve yöntemleri.</p><ul><li>Frekansçı vs. Bayesian yaklaşım</li><li>Bayes teoremi: likelihood, prior, posterior, evidence</li><li>Bayesian çıkarım iş akışı: model tanımlama, öncellerin seçimi, sonucun hesaplanması ve yorumlanması</li><li>Markov Chain Monte Carlo (MCMC) yöntemlerine giriş</li><li>Uygulamalar: Bayesian A/B testi, hiperparametre optimizasyonu</li></ul><p><strong>Lab Session:</strong></p><p>Simüle edilmiş A/B testi verilerini analiz etme, güven aralıkları oluşturma; gerçek dünya zaman serisi verisi üzerinde ayrıştırma ve ACF/PACF grafikleri oluşturma; Bayesian yöntemlerin tartışılması</p>"},{"title":"PyTorch/TensorFlow ile Deep Learning Temelleri","summary":"<h3>Sinir Ağlarına Giriş</h3><p>Sinir ağlarının temel yapı taşlarını ve eğitim sürecini öğrenme.</p><ul><li>Biyolojik ilham ve perceptron kavramı</li><li>Çok katmanlı perceptronlar (MLP) / İleri beslemeli sinir ağları: giriş, gizli, çıkış katmanları</li><li>Aktivasyon fonksiyonları: Sigmoid, Tanh, ReLU (ve varyantları), Softmax</li><li>Kayıp fonksiyonları: Cross-Entropy, MSE/MAE</li><li>Geri yayılım algoritması: gradyan hesaplama prensipleri</li><li>Gradient descent optimizasyonu: SGD, mini-batch, momentum, RMSprop, Adam</li><li>Regülarizasyon: L1/L2 ve Dropout</li></ul><h3>Deep Learning Çerçeveleri &amp; Eğitim</h3><p>PyTorch veya TensorFlow kullanarak derin öğrenme modelleri oluşturma.</p><ul><li>Tensorlar, otomatik türev alma (autograd/GradientTape)</li><li>nn.Module veya tf.keras.Model kullanarak sinir ağı modelleri oluşturma</li><li>Katmanlar, kayıp fonksiyonları, optimizatör tanımlama</li><li>Eğitim döngüsü: forward pass, kayıp hesaplama, backward pass, optimizasyon</li><li>GPU hızlandırma, model kaydetme ve yükleme</li><li>Eğitim izleme (TensorBoard)</li></ul><h3>CNN’lere ve RNN’lere Giriş</h3><p>Mekansal ve sıralı veriler için özel sinir ağı mimarilerinin temelleri.</p><ul><li>CNN’ler:<ul><li>Evrişim işlemi: filtreler, stride, padding, özellik haritaları</li><li>Havuzlama katmanları: max pooling, average pooling</li><li>Temel CNN mimarisi: Conv -&gt; ReLU -&gt; Pool -&gt; Fully Connected</li></ul></li><li>RNN’ler:<ul><li>Sıralı veri işleme ve gizli durum</li><li>Basit RNN’lerin gradyan problemleri</li><li>LSTM: hücre durumu, kapılar (input, forget, output)</li><li>GRU: LSTM’lere basitleştirilmiş alternatif</li></ul></li></ul><p><strong>Lab Session:</strong></p><p>Tablo veri seti üzerinde MLP, MNIST/Fashion-MNIST için CNN ve küçük bir metin veri setinde (ör. IMDB) LSTM/GRU uygulaması; TensorBoard ile eğitim takibi</p>"},{"title":"Computer Vision için İleri Deep Learning","summary":"<h3>İleri CNN Mimarileri &amp; Transfer Learning</h3><p>SOTA CNN mimarileri ve önceden eğitilmiş modellerin kullanımı.</p><ul><li>Derin ağların zorlukları: kaybolan gradyanlar, model derinliği</li><li>Residual Networks (ResNet): skip connections</li><li>Inception Networks (GoogLeNet): paralel filtreler</li><li>EfficientNets: model ölçeklendirmesi</li><li>Transfer Learning:<ul><li>Özellik çıkarımı ve ince ayar (fine-tuning)</li><li>PyTorch/TensorFlow hub kullanımı</li></ul></li></ul><h3>Temel Computer Vision Görevleri</h3><p>Görüntü sınıflandırmasının ötesinde görevler.</p><ul><li>Nesne tespiti: sınırlayıcı kutular, Intersection over Union (IoU)</li><li>Görüntü segmentasyonu: semantik ve örnek segmentasyon; FCN, U-Net</li></ul><h3>SOTA Trendleri: Vision Transformers &amp; Self-Supervised Learning</h3><p>Modern CV paradigmaları.</p><ul><li>Vision Transformers (ViT):<ul><li>Transformer mimarisinin görüntülere uygulanması</li><li>Görüntü yamalama, pozisyon kodlamaları, self-attention</li><li>CNN’lerle kıyaslama ve veri gereksinimleri</li></ul></li><li>Self-Supervised Learning (SSL):<ul><li>Kontrastif öğrenme (SimCLR, MoCo)</li><li>Maskeli görüntü modelleme (MAE, BEiT)</li></ul></li></ul><p><strong>Lab Session:</strong></p><p>Önceden eğitilmiş bir ResNet modelinin fine-tune edilmesi, nesne tespiti için YOLO veya SSD ile çıkarım; ViT ve SSL iş akışlarının tartışılması</p>"},{"title":"Transformers & LLM’ler ile SOTA NLP","summary":"<h3>RNN’lerden Attention &amp; Transformerlara</h3><p>Dil modellerinde RNN’lerin sınırları ve Transformer’ın avantajları.</p><ul><li>RNN’lerin/LSTM’lerin uzun menzilli bağımlılık sorunları</li><li>Attention mekanizması:<ul><li>Scaled dot-product attention: queries, keys, values</li></ul></li><li>Transformer Mimarisinin Temelleri:<ul><li>Encoder-Decoder yapısı, self-attention, multi-head attention, positional encoding</li><li>Layer normalization ve feed-forward network’ler</li></ul></li></ul><h3>Önceden Eğitilmiş Dil Modelleri &amp; LLM’ler</h3><p>Büyük dil modellerinin kullanımı.</p><ul><li>Ön eğitimin gücü: BERT (Masked Language Modeling), GPT (Causal Language Modeling)</li><li>LLM’lerin mimarisi ve ölçekleme yasaları: GPT-3/4, Llama, Claude, Gemini, Mistral</li><li>Zero-shot ve Few-shot öğrenme, metin gömme teknikleri</li></ul><h3>SOTA Teknikleri: Prompting, RAG, PEFT &amp; Hugging Face</h3><p>Modern tekniklerle LLM’lerle etkileşim.</p><ul><li>Prompt Engineering: zero-shot, few-shot, instruction tuning, Chain-of-Thought</li><li>Retrieval-Augmented Generation (RAG):<ul><li>Retriever + Generator, vector databases kullanımı</li></ul></li><li>Parameter-Efficient Fine-Tuning (PEFT):<ul><li>LoRA, QLoRA</li></ul></li><li>Hugging Face ekosistemi: transformers, datasets, evaluate, pipelines</li></ul><p><strong>Lab Session:</strong></p><p>Hugging Face transformers ile önceden eğitilmiş modelin fine-tune edilmesi (ör. duygu analizi veya NER), LLM API’leri ile prompt engineering deneyleri; temel RAG sistemi kurulumu</p>"},{"title":"SOTA Generative Modeller (Diffusion Odaklı) & İleri Sıralı Modeller","summary":"<h3>Generative Modellere Genel Bakış</h3><p>Generative ve discriminative modellerin genel farkları.</p><ul><li>GANs: Generator vs. Discriminator, eğitim zorlukları (mode collapse, instability)</li><li>Variational Autoencoders (VAEs): kodlayıcı-kod çözücü, latent space, olasılıksal yaklaşım</li><li>Flow-based modeller (kısa değinme)</li></ul><h3>Derinlemesine İnceleme: Diffusion Modelleri</h3><p>Yüksek kaliteli görüntü üretimi için SOTA yöntemler.</p><ul><li>İleri süreç: veriye kademeli olarak Gaussian gürültüsü ekleme</li><li>Ters süreç: U-Net mimarisi ile gürültüyü adım adım kaldırma</li><li>Noise schedule, koşullandırma (text-to-image)</li><li>Uygulamalar: DALL-E, Stable Diffusion, Imagen, görüntü düzenleme, inpainting, super-resolution</li><li>Zorluklar: örnekleme hızı, bilgi damıtma, kontrol edilebilirlik</li></ul><h3>İleri Sıralı &amp; Graf Modelleri</h3><p>Modern sıralı ve graf verisi için alternatif model yapılandırmaları.</p><ul><li>Verimli sıralı modeller:<ul><li>State Space Models (SSM’ler), Lineer RNN’ler, Mamba örneği, hibrit mimariler</li></ul></li><li>Graph Neural Networks (GNN’ler):<ul><li>Mesaj geçirme (message passing), GCN, GAT, ölçeklenebilirlik ve aşırı düzgünleştirme sorunları</li></ul></li></ul><p><strong>Lab Session:</strong></p><p>Stable Diffusion kullanarak text-to-image üretimi, farklı prompt’lar, rehberlik ölçekleri ve negatif prompt’larla deneyler; temel bir GCN modelinin uygulanması</p>"},{"title":"Data Engineering & Big Data Temelleri","summary":"<h3>Veri Pipeline’ları &amp; Orkestrasyonu</h3><p>Otomatik ve güvenilir veri iş akışlarının oluşturulması.</p><ul><li>ETL vs. ELT paradigmaları</li><li>Veri pipeline bileşenleri: kaynaklar, dönüşümler, hedefler</li><li>İş akışı orkestrasyon araçları:<ul><li>Apache Airflow: DAG’ler, operatörler, görevler, zamanlama</li><li>Alternatifler: Prefect, Dagster</li></ul></li><li>Veri kalitesi kontrolleri ve izleme</li><li>Batch vs. Streaming veri işleme (Kafka, Spark Streaming)</li></ul><h3>Veri Depolama Mimarileri</h3><p>Büyük veri setlerinin depolanması ve yönetilmesi.</p><ul><li>Veri ambarları: Redshift, BigQuery, Snowflake</li><li>Veri gölleri: S3, ADLS, GCS; Parquet, ORC</li><li>Data lakehouses: Databricks Delta Lake, Apache Iceberg, Apache Hudi</li><li>Vector databases: Pinecone, Milvus, Weaviate, Chroma kavramı</li></ul><h3>Dağıtık Hesaplama &amp; Big Data İşleme</h3><p>Tek makineden büyük ölçekli verilerin işlenmesi.</p><ul><li>Dağıtık hesaplama ihtiyacı ve Hadoop ekosistemi (HDFS, MapReduce/YARN)</li><li>Apache Spark:<ul><li>RDD’ler, DataFrame API, lazy evaluation, driver/executor mimarisi</li><li>Spark SQL, bulut entegrasyonu</li></ul></li><li>Bulut tabanlı Big Data hizmetleri: AWS EMR, Google Dataproc, Azure HDInsight/Synapse</li></ul><p><strong>Lab Session:</strong></p><p>PySpark ile basit veri okuma, dönüşüm ve çıktı işlemleri; Apache Airflow DAG oluşturma; vector database’in LLM/RAG pipeline’a entegrasyonu üzerine tartışma</p>"},{"title":"MLOps - Modelleri Dağıtma, İzleme & Yönetme","summary":"<h3>MLOps’un Temelleri</h3><p>ML modellerini operasyonelleştirme süreçleri.</p><ul><li>Neden MLOps? Model dağıtımındaki zorluklar ve ML yaşam döngüsü yönetimi</li><li>Versiyonlama, otomasyon (CI/CD), test etme, dağıtım, izleme, yönetişim</li><li>Tekrarlanabilirlik: kod, veri, parametre ve ortam izleme</li></ul><h3>Model Dağıtım Stratejileri</h3><p>Eğitilen modellerin çıkarım için kullanıma sunulması.</p><ul><li>Docker ile konteynerleştirme: Dockerfile yazımı, imaj oluşturma, konteyner çalıştırma</li><li>Dağıtım desenleri:<ul><li>Çevrimiçi/gerçek zamanlı çıkarım (REST API’ler: Flask, FastAPI)</li><li>Toplu çıkarım (batch)</li><li>Uç noktası dağıtımı (edge deployment)</li></ul></li><li>Model sunum çerçeveleri: TF Serving, TorchServe, KFServing, Seldon Core</li><li>Sunucusuz dağıtım: AWS Lambda, Google Cloud Functions, Azure Functions</li><li>Kubernetes: konteyner orkestrasyonu (kavramsal)</li></ul><h3>Deney İzleme, Model İzleme &amp; Sürümleme</h3><p>Model ve deneylerin izlenmesi ile sürümlendirilmesi.</p><ul><li>Deney izleme: parametre, metrik, kod versiyonu, artefakt günlüğü<ul><li>MLflow, Weights &amp; Biases, Comet ML</li></ul></li><li>Model izleme: performans, veri drift, kavram drift ölçümleri</li><li>Sürümleme: Git ile kod versiyon kontrolü, DVC ile veri/model sürümlendirme</li><li>Feature store’lar: Feast, Tecton vb.</li></ul><p><strong>Lab Session:</strong></p><p>MLflow ile model eğitimi, kayıt, Docker konteynerleştirme, API aracılığıyla çıkarım, DVC ve drift tespit araçlarının tartışılması</p>"},{"title":"Nedensel Çıkarım, Açıklanabilirlik & Etik","summary":"<h3>Nedensel Çıkarıma Giriş</h3><p>Korelasyon ve nedensellik arasındaki farklar ve yöntemler.</p><ul><li>\"Korelasyon nedensellik anlamına gelmez\" örnekleri</li><li>Neyman-Rubin Causal Model: tedavi, kontrol grupları, Ortalama Tedavi Etkisi (ATE)</li><li>Karıştırıcı değişkenler ve nedensel önyargı</li><li>Yöntemler:<ul><li>Rastgele kontrollü deneyler (RCT’ler, A/B testleri)</li><li>Gözlemsel yöntemler: propensity score matching, difference-in-differences, regression discontinuity</li><li>ML tabanlı nedensel yöntemler (Causal Forests, Double ML)</li></ul></li><li>Nedensel keşif (kısa değinme)</li></ul><h3>Açıklanabilir AI (XAI) &amp; Model Yorumlanabilirliği</h3><p>Karmaşık modellerin yorumlanması ve açıklanması.</p><ul><li>Açıklanabilirlik ihtiyacı: güven, hata ayıklama, adalet, düzenleme</li><li>Model-özel vs. modelden bağımsız yöntemler</li><li>Yorumlama teknikleri:<ul><li>Doğrusal modellerin katsayı yorumlaması</li><li>Ağaç tabanlı modellerde özellik önemi ve karar yolları</li><li>Yerel (LIME) ve küresel (SHAP) açıklamalar</li><li>Karşı olgu açıklamaları, kavram tabanlı yöntemler (ör. TCAV)</li></ul></li></ul><h3>Sorumlu AI: Etik, Adalet &amp; Gizlilik</h3><p>AI uygulamalarında etik ilkelerin uygulanması.</p><ul><li>AI’da etik ilkeler: hesap verebilirlik, şeffaflık, adalet, zarar vermeme</li><li>ML’de sapma kaynakları: veri, algoritma, insan önyargısı</li><li>Adalet metrikleri: demografik eşitlik, eşit fırsat, ödünleşmeler</li><li>Sapma azaltma teknikleri: ön işleme, eğitim sırasında kısıtlamalar, son işleme ayarlamaları</li><li>Gizlilik: veri anonimleştirme, diferansiyel gizlilik, federated learning</li></ul><p><strong>Lab Session:</strong></p><p>Karmaşık bir model üzerinde SHAP analizi ile açıklama, adalet metriklerinin değerlendirilmesi; potansiyel sapma azaltma stratejilerinin tartışılması</p>"},{"title":"Bitirme Projesi - Bölüm 1","summary":"<h3>Proje Fikri Geliştirme &amp; Kapsam Belirleme</h3><p>Öğrenilen teknikleri uygulayan gerçek dünya problemlerini belirleme süreci.</p><ul><li>Gerçek dünya problemlerinin tespiti</li><li>Bireysel veya takım tabanlı beyin fırtınası</li><li>Hedef, teslimat ve başarı metriklerinin tanımlanması</li><li>Proje planlama, kapsam belirleme ve etik inceleme</li></ul><h3>Bitirme Projesi için Veri Toplama &amp; İleri EDA</h3><p>Proje hedeflerine yönelik veri toplama ve derinlemesine analiz.</p><ul><li>İlgili veri setlerinin bulunuşu ve edinimi (kamu kaynakları, API’ler, web scraping)</li><li>Veri alım pipeline’larının oluşturulması</li><li>Hedefe yönelik EDA ve ileri görselleştirme teknikleri</li><li>Başlangıç hipotezlerinin formüle edilmesi</li></ul><h3>Temel Modelleme &amp; İterasyon Planı</h3><p>Başlangıç model performansının değerlendirilmesi ve geliştirme planı.</p><ul><li>Uygun temel modellerin seçimi ve uygulanması</li><li>Model performansının ölçülmesi</li><li>İyileştirme alanlarının belirlenmesi</li><li>İterasyon planı: feature engineering, SOTA model seçimi, hiperparametre ayarlama</li></ul><p><strong>Lab Session:</strong></p><p>Özel mentorluk eşliğinde proje üzerinde yoğun uygulamalı çalışma, problem ifadesinin iyileştirilmesi, veri güvence altına alma, kapsamlı EDA ve temel model uygulamasının planlanması</p>"},{"title":"Bitirme Projesi - Bölüm 2 & Kariyer Hazırlığı","summary":"<h3>Bitirme Projesi için İleri Modelleme &amp; Değerlendirme</h3><p>SOTA modelleri uygulayarak nihai çözümün değerlendirilmesi.</p><ul><li>Gelişmiş modellerin (Transformer, XGBoost/LightGBM, RAG, Diffusion) uygulanması</li><li>İleri hiperparametre optimizasyonu (ör. Bayesian optimizasyon)</li><li>Model değerlendirme, hata analizi ve yorumlama (SHAP, LIME)</li><li>Dağıtım stratejilerinin simülasyonu</li></ul><h3>Proje Sunumu &amp; Dokümantasyonu</h3><p>Proje metodolojisini, sonuçlarını ve etkisini etkili bir şekilde iletmek.</p><ul><li>Teknik bir sunum yapılandırma</li><li>Sonuçlar için ilgi çekici görselleştirmeler oluşturma</li><li>Karmaşık fikirleri farklı kitlelere açıkça iletme</li><li>Proje dokümantasyonu yazma (ör. README, teknik rapor)</li><li>Bir proje portföyü parçası oluşturma</li></ul><h3>Kariyer Başlangıç Pisti</h3><p>Veri bilimi alanında başarılı iş arayışına hazırlanma.</p><ul><li>Veri bilimi iş piyasası: roller, gerekli beceriler, endüstri trendleri</li><li>Etkili bir özgeçmiş hazırlama</li><li>Profesyonel çevrimiçi varlık oluşturma (LinkedIn, GitHub portföyü)</li><li>Networking stratejileri</li><li>Teknik ve davranışsal mülakat hazırlığı (STAR metodu, take-home assignments, vaka çalışmaları, maaş pazarlığı)</li></ul><p><strong>Lab Session:</strong></p><p>Proje sonlandırma, sunum pratiği, akran ve eğitmen geri bildirimi, sahte mülakat oturumları ve özgeçmiş inceleme atölyeleri</p>"},{"title":"Bootcamp Sonrası Destek","summary":"<h3>Sürekli Öğrenme &amp; Topluluk</h3><p>Güncel kalmak ve destek sağlamak için kaynaklar ve networking.</p><ul><li>Kürateli kaynaklara erişim (bloglar, bültenler, anahtar araştırmacılar, konferanslar)</li><li>Bootcamp mezunları ağı ile devam eden destek ve networking</li></ul><h3>Kariyer Hizmetleri Uzantısı</h3><p>Mezuniyet sonrası iş arama desteği ve işveren ortak ağlarına erişim imkanı.</p>"}]},"published_at":"2025-04-21T14:42:54.026429+00:00","promotional_video_url":null,"units":[],"course_instructors":[{"course_id":16,"instructor_id":1,"is_active":true,"instructor":{"deleted_at":null,"slug":{"tr":"engin-deniz-alpman"},"bio":{"en":"<p>Engin Deniz Alpman is a consultant and training instructor highly experienced in AI, machine learning and big data. With his strong academic background in physics, engineering and AI, he turns complex theoretical concepts into comprehensible, applicable solutions.</p><p>Providing bespoke AI solutions and training to leading companies like Mercedes, İş Bankası, Vestel and Allianz, he has supported firms in using data effectively and optimize their processes. He has successfully managed and executed many critical projects including real-time image processing, medical image analysis, industrial process optimization and big data systems design.</p><p>He is currently continuing PhD work at Boğaziçi University, researching the subject of integrating large language models (LLM) and real-time video analysis for industrial process optimization and high-sensitivity anomaly detection in dynamic systems.</p><p>His educational approach focuses on deep comprehension and intuitive learning, providing practical, effective trainings for corporations and individuals that are easily transferable to real life scenarios. To date, he has provided AI, machine learning, deep learning and data engineering courses to many corporate clients, most prominently the İstanbul Stock Exchange, Türkiye Finans, Turkcell, Digiturk ve Garanti BBVA.</p><p>Fields of expertise:</p><p>📈AI/ML Strategy &amp; Implementation Consulting<br>🎓Corporate and Individual Courses (ML, DL, Big Data, Data Engineering, LLM)<br>🧠Large Language Models (LLM): Development, Fine-Tuning and Application <br>📹 Real-Time Computer Vision and Image Processing<br>🏭 AI-Supported Industrial Process Optimization and Automation<br>🗃️ Big Data Architecture Design and Data Engineering<br>📉 Anomaly Detection (Timeseries and Dynamic Systems)<br>⚙️ Complex Systems Modeling and Simulation<br>💻 High Performance Computing</p><p>Get in contact for custom consulting and training solutions.</p>","tr":"<p>Engin Deniz Alpman, yapay zeka, makine öğrenmesi ve büyük veri alanlarında yüksek deneyime sahip danışman ve eğitmendir. Fizik, mühendislik ve yapay zeka alanlarına dayanan güçlü akademik altyapısıyla karmaşık teorik kavramları anlaşılır ve uygulamaya dönük çözümlere dönüştürür.</p><p>Mercedes, İş Bankası, Vestel, Allianz gibi önde gelen şirketlere özel yapay zeka çözümleri ve eğitimleri sunarak, kurumların veriyi etkin biçimde kullanmalarına ve süreçlerini optimize etmelerine destek olmuştur. Gerçek zamanlı görüntü işleme, medikal görüntü analizi, endüstriyel süreç optimizasyonu ve büyük veri sistemleri tasarımı gibi birçok kritik projeyi başarıyla yönetmiş ve uygulamıştır.</p><p>Şu anda Boğaziçi Üniversitesi'nde doktora çalışmalarını sürdürmekte olan Engin Deniz Alpman'ın araştırma konusu, büyük dil modelleri (LLM) ve gerçek zamanlı video analizini entegre ederek endüstriyel süreç optimizasyonu ve dinamik sistemlerde yüksek hassasiyetli anomali tespiti üzerine yoğunlaşmaktadır.</p><p>Eğitime yaklaşımı; derinlemesine kavrama ve sezgisel öğrenmeyi temel alarak, kurumlar ve bireyler için pratik, etkili ve gerçek hayat senaryolarına kolayca aktarılabilen eğitimler sunmaktır. Bugüne kadar Borsa İstanbul, Türkiye Finans, Turkcell, Digiturk ve Garanti BBVA başta olmak üzere birçok kurumsal müşteriye yapay zeka, makine öğrenmesi, derin öğrenme ve veri mühendisliği alanlarında eğitimler vermiştir.</p><p>Uzmanlık Alanları:</p><p>📈 Yapay Zeka ve Makine Öğrenmesi Stratejisi &amp; Uygulama Danışmanlığı<br>🎓 Kurumsal ve Bireysel Eğitimler (ML, DL, Büyük Veri, Veri Mühendisliği, LLM)<br>🧠 Büyük Dil Modelleri (LLM): Geliştirme, İnce Ayar ve Uygulama <br>📹 Gerçek Zamanlı Bilgisayarlı Görü ve Görüntü İşleme<br>🏭 Yapay Zekâ Destekli Endüstriyel Süreç Optimizasyonu ve Otomasyonu<br>🗃️ Büyük Veri Mimari Tasarımı ve Veri Mühendisliği<br>📉 Anomali Tespiti (Zaman Serileri ve Dinamik Sistemler)<br>⚙️ Karmaşık Sistemlerin Modellemesi ve Simülasyonu<br>💻 Yüksek Performanslı Hesaplama (HPC)</p><p>Özel danışmanlık ve eğitim çözümleri için iletişime geçebilirsiniz</p>"},"profile_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/340ff523-2add-4856-a5f5-6f1b4cb49113.png","updated_at":"2026-01-21T09:25:06.517033+00:00","id":1,"created_at":"2025-04-28T07:06:48.381908+00:00","name":"Engin Deniz Alpman","title":{"en":"Senior AI Consultant & Instructor","tr":"Kıdemli Yapay Zeka Danışmanı & Eğitmeni"},"bogazici":false,"order":1}},{"course_id":16,"instructor_id":6,"is_active":true,"instructor":{"deleted_at":null,"slug":{"tr":"sukru-yusuf-kaya"},"bio":{"en":"<p>Şükrü Yusuf Kaya is an expert with over ten years of hands-on experience in artificial intelligence, machine learning, and advanced data engineering. With a strong academic background in computer engineering, statistics, and cybersecurity, he leads organizations in rapidly generating business value from data by ensuring the seamless transition of research outputs into production environments. He has designed end-to-end artificial intelligence architectures in critical sectors such as finance, telecommunications, defense, and manufacturing, delivering reliable, scalable, and regulation-compliant solutions under demanding operational constraints.</p><p>His projects in both public and private sectors span a wide range, including enterprise-scale RAG-based information access systems, real-time fraud detection platforms, production line video analytics, and performance optimization of distributed big data infrastructures. The MLOps framework he designed for internal teams reduced development costs by shortening the model lifecycle by 40%, while significantly improving transparency in model versioning and monitoring.</p><p>In addition to consulting, Kaya designs and delivers advanced technical training programs. He has mentored and trained hundreds of engineers through comprehensive curricula ranging from fine-tuning large language models to autonomous AI agent architectures, and from cloud-native high-performance computing clusters to production-grade deployment practices. His teaching approach, grounded in problem-driven explanations, live coding sessions, and industry-specific case studies,enables participants to directly apply acquired knowledge to real-world projects.</p><p>His research focuses on high-precision anomaly detection in dynamic systems by combining large language models with multi-source real-time video streams. His long-term objective is to develop explainable and cyber-secure AI systems capable of triggering autonomous interventions within seconds in closed-loop industrial environments.</p><p>📈 Enterprise AI Strategy Design &amp; ROI Optimization<br> 💾 Lakehouse &amp; Streaming Data Architectures<br> 🧠 Large Language Models (LLM) &amp; RAG Solutions<br> 🤖 AI Agents &amp; Autonomous Task Execution<br> 🛰️ Swarm AI for Autonomous Drone &amp; Robotics Systems<br> 📹 Nanosecond Video Analytics &amp; Edge AI<br> 🏭 Industrial IoT &amp; Digital Twin Systems<br> 🔒 Trustworthy &amp; Explainable AI<br> 👥 Privacy-Preserving &amp; Federated Learning<br> 💳 FinTech Fraud Detection &amp; AML Systems<br> 🗺️ Geospatial Big Data &amp; Dynamic Logistics<br>🔬 Multi-Modal Medical Diagnostic Systems<br> 🛡️ Adversarial Resilience &amp; AI Red-Teaming<br> 🗄️ MLOps – CI/CD, Feature Stores &amp; Model Monitoring<br> 📉 Time Series Analysis &amp; Anomaly Detection<br> 🧬 Synthetic Data Generation<br> ♻️ Energy AI &amp; Carbon Optimization<br> ⚛️ Quantum-Assisted Machine Learning<br> 💻 Multi-Node HPC &amp; Distributed GPU Training</p><p>For customized consulting, project development, and advanced training solutions, please contact us.</p>","tr":"Şükrü Yusuf Kaya, yapay zekâ, makine öğrenmesi ve ileri veri mühendisliği alanlarında on yılı aşkın saha deneyimine sahip bir uzmandır. Bilgisayar mühendisliği, istatistik ve siber güvenlik ekseninde şekillenen güçlü akademik arka planı sayesinde, araştırma çıktılarının üretim ortamlarına sorunsuz taşınmasını sağlayarak kurumların veriden hızla katma değer üretmesine öncülük eder. Finans, telekomünikasyon, savunma ve imalat gibi kritik sektörlerde uçtan uca yapay zekâ mimarileri tasarlamış; zorlu operasyonel kısıtları gözeterek güvenilir, ölçeklenebilir ve regülasyon-uyumlu çözümler hayata geçirmiştir.\n\nKamu ve özel sektörde yürüttüğü projeler, Kurumsal RAG tabanlı bilgi erişim sistemlerinden gerçek zamanlı dolandırıcılık tespitine, üretim hattı video analitiğinden dağıtık büyük veri platformlarının performans optimizasyonuna kadar geniş bir yelpazeyi kapsar. İç ekipler için tasarladığı MLOps çerçevesi, model yaşam döngüsünü %40 kısaltarak geliştirme maliyetlerini düşürmüş, aynı zamanda model sürümleme ve izleme süreçlerinin şeffaflığını artırmıştır.\n\nDanışmanlığın yanı sıra Kaya, üst düzey teknik eğitim programları da geliştirmekte ve yürütmektedir. Büyük dil modellerinin ince ayarından otonom AI ajan mimarisine, bulut-yerel yüksek performanslı hesaplama kümelerinden üretim ortamında devreye alıma kadar uzanan kapsamlı içeriklerle yüzlerce mühendise mentorluk ve sınıf içi eğitim vermiştir. Problem odaklı anlatım, canlı kodlama oturumları ve sektör-spesifik vaka analizleri üzerine inşa ettiği pedagojik yaklaşım, katılımcıların edinilen bilgiyi projelerine doğrudan aktarmalarını mümkün kılar.\n\nAraştırmalarını büyük dil modelleri ile çok-kaynaklı gerçek zamanlı video akışlarını birleştirerek, dinamik sistemlerde yüksek hassasiyetli anomali tespiti üzerine yoğunlaştırmaktadır. Nihai hedefi, kapalı çevrim üretim hatlarında saniyeler içinde otomatik müdahaleyi tetikleyebilen, açıklanabilir ve siber güvenli yapay zekâ çözümleri geliştirmektir.\n\n\n📈 Kurumsal AI Strateji Tasarımı &amp; Yatırım Getirisi (ROI) Optimizasyonu\n💾 Lakehouse &amp; Streaming Veri Mimarileri \n🧠 Büyük Dil Modelleri (LLM) ve RAG Çözümleri \n🤖 AI Ajanları &amp; Otonom Görev Yürütme \n🛰️ Swarm AI: Otonom Drone &amp; Robot Filolarında İş Birliği \n📹 Nano-Saniye Video Analitiği &amp; Edge-AI \n🏭 Endüstriyel IoT &amp; Dijital İkiz \n🔒 Güvenilir &amp; Açıklanabilir AI \n👥 Gizliliği Korumalı / Federated Learning \n💳 FinTech Dolandırıcılık &amp; AML Tespiti \n🗺️ Jeo-Uzamsal Büyük Veri &amp; Dinamik Lojistik \n🔬 Çok-Modelli Medikal Teşhis Sistemleri\n🛡️ Adversarial Dayanıklılık &amp; Red-Teaming \n🗄️ MLOps – CI/CD, Feature Store &amp; Model İzleme\n📉 Zaman Serisi &amp; Anomali Tespiti \n🧬 Sentetik Veri Üretimi \n♻️ Enerji AI &amp; Karbon Optimizasyonu \n⚛️ Kuantum Destekli Makine Öğrenmesi \n💻 Çok-Düğümlü HPC &amp; Dağıtık GPU Eğitimleri\n\nÖzel danışmanlık, proje ve eğitim çözümleri için iletişime geçebilirsiniz."},"profile_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/9ca0018b-4a12-4ce8-9002-b0a39a5d9bbf.PNG","updated_at":"2026-01-21T09:42:39.506050+00:00","id":6,"created_at":"2025-05-28T06:59:05.900828+00:00","name":"Şükrü Yusuf Kaya","title":{"en":"Senior Artificial Intelligence Engineer · Consultant · Trainer","tr":"Kıdemli Yapay Zeka Mühendisi · Danışman · Eğitmen"},"bogazici":false,"order":2}}],"category":null,"course_group":{"role":"Hızlandırılmış","course_id":16,"id":13,"group_id":1,"order":10},"instances":[],"future_instances":[]},"instance":null,"current_user":null,"corporate":false}