Google otkrio neke detalje o svom superračunalu koje trenira umjetnu inteligenciju, moglo bi vas iznenaditi tko ga je koristio

Otkrili su kako bi mogli raditi na novom TPU čipu, koji bi se natjecao s Nvidijom H100, ali nisu otkrivali nikakve detalje.

Martina Čizmić | 05.04.2023. / 08:45 komentari
Slika nije dostupna (Foto: Zimo)

Dok traje "borba" umjetnih inteligencija u kojoj OpenAI (odnosno Microsoft) i Google odmjeravaju snage, upravo je ova posljednja tvrtka odlučila otkriti što čini njihovog Barda.

Tako su objavili detalje o superračunalima koja koriste za treniranje svojih modela umjetne inteligencije, rekavši kako su njihovi sustavi brži i energetski učinkovitiji od usporedivih Nvidijinih sustava.
 
Podsjetimo, Google je za potrebe superračunala dizajnirao vlastiti čip nazvan Tensor Processing Unit ili TPU, a te čipove koristi i za više od 90 posto rada tvrtke na obuci umjetne inteligencije, procesu unosa podataka kroz modele kako bi bili korisni u zadacima kao što je odgovaranje na upite ljudskim tekstom ili generiranje slika.
 
Google TPU sada je u svojoj četvrtoj generaciji. U znanstvenom radu objavljenom u utorak, detaljno su opisali kako su povezali više od 4000 čipova u superračunalo pomoću vlastitih posebno razvijenih optičkih prekidača koji pomažu u povezivanju pojedinačnih strojeva.
 
 
Upravo je poboljšanje ovih veza postalo ključna točka natjecanja među tvrtkama koje grade superračunala s umjetnom inteligencijom jer su veliki jezični modeli koji pokreću tehnologije poput Barda ili OpenAI-jevog ChatGPT-a postali preveliki za pohranjivanje na jednom čipu.
 
Modeli se umjesto toga moraju podijeliti na tisuće čipova, koji zatim moraju raditi zajedno tjednima da bi se uvježbao model. Googleov model PaLM, njegov najveći javno objavljeni jezični model, uvježban je dijeljenjem na dva superračunala s 4000 čipova tijekom 50 dana.
 
Iz Googlea su otkrili kako njihova superračunala olakšavaju rekonfiguraciju veza između čipova u hodu, pomažući u izbjegavanju problema i podešavanju radi povećanja performansi.
 
Prebacivanje strujnog kruga olakšava usmjeravanje pokvarenih komponenti, napisali su Googleov suradnik Norm Jouppi i Googleov istaknuti inženjer David Patterson u postu na blogu o sustavu. Ova nam fleksibilnost čak omogućuje promjenu topologije međusobnog povezivanja superračunala kako bismo ubrzali performanse modela za strojno učenje.
 
Iako Google tek sad javno objavljuje pojedinosti o svom superračunalu, ono se koristi od 2020. u podatkovnom centru u Oklahomi. Iz Googlea su otkrili i da je popularni startup Midjourney, koji pomoću umjetne inteligencije stvara slike i fotografije na temelju tekstualnih uputa, koristio njihov sustav za treniranje svog modela.
 
 
U znanstvnenom radu navodi se i kako je Googleov sustav energetski učinkovitiji i brži od sustava temeljenog na Nvidijinom A100 čipu koji je bio na tržištu u isto vrijeme kad i četvrta generacija TPU-a. .
 
Zanimljivo, iz Googlea tvrde kako nisu uspoređivali svoju četvrtu generaciju s Nvidijinim trenutnim vodećim H100 čipom jer je H100 došao na tržište nakon Googleovog čipa i napravljen je s novijom tehnologijom.
 
No, to ne znači da Google više neće dorađivati svoje čipove. Otkrili su kako bi mogli raditi na novom TPU čipu, koji bi se natjecao s Nvidijom H100, ali nisu otkrivali nikakve detalje.
 
Izvor: Reuters
tri vijesti o kojima se priča Širenje stanica raka Radi se na novim lijekovima Otkriveno tajno oružje raka: Evo što tumorima daje energiju za širenje u tijelu Pametni telefon, ilustracija Mali, ali značajna promjena Stavljate telefon na stol s ekranom prema gore? Evo zašto biste trebali promijeniti tu naviku Nezadovoljstvo, ilustracija I Hrvati su počeli primati obavijesti Šok za korisnike Fejsa i Instagrama: Evo što ih čeka ako ne počnu plaćati pretplatu i ne žele dati podatke Meti

 

Vezane vijesti