Spuštění AI modelu na starém PDP-11: nadšenec používal CPU s frekvencí 6 MHz a 64 KB RAM

Spuštění AI modelu na starém PDP-11: nadšenec používal CPU s frekvencí 6 MHz a 64 KB RAM

3 hardware

Veterán Microsoft ukazuje fungování transformátoru na starém počítači

*Dave Plummer – známý vývojář Windows,*

*ukazuje, že moderní modely AI lze trénovat i na zařízení desetileté starosti.*

Co bylo provedeno
- Zařízení: PDP‑11 / 44, 47letý počítač s procesorem 6 MHz a 64 KB RAM.

- Model: „Attention 11“ – transformátorová síť napsaná v assembleru PDP‑11 Damienem Buretem (Damien Buret).

- Úkol tréninku: vytvořit obrácenou posloupnost osmi čísel.

Model nemusí pamatovat příklady; musí se naučit pravidlo „obrácení“ posloupnosti.

Jak to funguje
1. Inicializace – model začíná s náhodnými váhami, přesnost téměř nulová.

2. Trénink – na každém kroku probíhá přední průchod (8bitová fixní čárka) a aktualizace vah.

3. Postupné osvojování vzoru – po několika stovkách iterací mechanismus pozornosti „odhalí“ pravidlo, a model přechází od hádání k reálné znalosti.

> “Pozorujeme zjednodušenou anatomii samotného učení… stroj nakonec překročí neviditelný práh – od hádání k poznání.” – Plummer

Výsledky
- Přesnost: 100 % na úkolu obrácené posloupnosti.

- Rychlost: přibližně 350 tréninkových kroků, což zabralo ~3,5 minuty na PDP‑11/44 s cache pamětí.

Co to znamená pro moderní AI
Plummer zdůrazňuje, že základní principy učení – opakující se aritmetické operace a korekce chyb – jsou plně realizovány i v tak jednoduchém systému.

„Tato stará stroj nemyslí mysticky; jen aktualizuje několik tisíc čísel. Podstata moderní AI je škálování tohoto procesu.“

Tímto autor prokázal, že základní mechanismus transformátorů zůstává stejný, bez ohledu na to, na jakém zařízení pracují.

Komentáře (0)

Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.

Zatím žádné komentáře. Zanechte komentář a podělte se o svůj názor!

Chcete-li zanechat komentář, přihlaste se.

Přihlaste se pro komentování