Araştırma Notları
ve Yapay Zeka.

Bu platform, yerel sistemler için optimize edilmiş küçük dil modelleri (SLM) ve deneysel yapay zeka çalışmaları üzerine dokümantasyon sunar.

Neden TCYZ?

TCYZ, yüksek hızın ve düşük kaynak kullanımının birleştiği bir araştırma modelidir. Modellerimiz 4MB - 28M parametre aralığında olup, tamamen yerel donanımlarda çalışmak üzere tasarlanmıştır.

Yerel Çalışma (Offline)
Hız Odaklı Mimari
Düşük RAM Gereksinimi
Ollama Entegrasyonu

Temel Kavramlar

1. Quantization (Nicemleme)

Modellerimizi GGUF formatında 4-bit ve 8-bit nicemleme yöntemleriyle küçültüyoruz. Bu, modelin zekasından minimum düzeyde ödün vererek hızını katlamamızı sağlıyor.

2. Parameter Efficiency

Milyarlarca parametre yerine, belirli görevlerde uzmanlaşmış milyonluk parametre yapılarını tercih ediyoruz. Cokertme-v2 bu felsefenin en güncel temsilcisidir.

Aktif Modeller

TCYZ/Cokertme-v2

5MB RAM | Advanced Logic

ollama run TCYZ/cokertme2

TCYZ/Hayati

9MB RAM | General Purpose

ollama run TCYZ/hayati

Hızlı Başlangıç

Modellerimizi kullanmak için sisteminizde Ollama yüklü olmalıdır. Detaylı kurulum rehberi için tıklayın.

$ View Full Installation Guide →
Kopyalandı!