Araştırma Notları
ve Yapay Zeka.
Bu platform, yerel sistemler için optimize edilmiş küçük dil modelleri (SLM) ve deneysel yapay zeka çalışmaları üzerine dokümantasyon sunar.
Neden TCYZ?
TCYZ, yüksek hızın ve düşük kaynak kullanımının birleştiği bir araştırma modelidir. Modellerimiz 4MB - 28M parametre aralığında olup, tamamen yerel donanımlarda çalışmak üzere tasarlanmıştır.
Temel Kavramlar
1. Quantization (Nicemleme)
Modellerimizi GGUF formatında 4-bit ve 8-bit nicemleme yöntemleriyle küçültüyoruz. Bu, modelin zekasından minimum düzeyde ödün vererek hızını katlamamızı sağlıyor.
2. Parameter Efficiency
Milyarlarca parametre yerine, belirli görevlerde uzmanlaşmış milyonluk parametre yapılarını tercih ediyoruz. Cokertme-v2 bu felsefenin en güncel temsilcisidir.
Aktif Modeller
TCYZ/Cokertme-v2
5MB RAM | Advanced Logic
TCYZ/Hayati
9MB RAM | General Purpose
Hızlı Başlangıç
Modellerimizi kullanmak için sisteminizde Ollama yüklü olmalıdır. Detaylı kurulum rehberi için tıklayın.