Wpis z mikrobloga

⚪ 11 miesięcy temu wyszło Dalle-2

⚪ 7 miesięcy temu wyszło Stable Diffusion, które jest 5x wydajniejsze od Dalle-2

⚪ 3 miesiące temu wyszło Muse, które jest 11x wydajniejsze od Stable Diffusion

⚪ właśnie wyszło StyleGAN-T, które jest 30x wydajniejsze od Stable Diffusion

Nie pytajcie o Midjourney, bo nie jest otwarte...

#technologia #programowanie #uczeniemaszynowe #midjourney #stablediffusion #ai #ciekawostki
timechain - ⚪ 11 miesięcy temu wyszło Dalle-2

⚪ 7 miesięcy temu wyszło Stable Diffus...
  • 6
@timechain: Jutro wyjdzie puknijsiew_glowe, ktore będzie 2137x od StyleGAN-T.

A tak w ogóle, to wielu naukowców uważa, że sieci oparte o stable diffusion mają znacznie większe możliwości od sieci GAN. Więc trochę bzdury wypisujesz (albo bezkrytycznie powtarzasz to, co ktoś powiedział w Internecie).
@groman43: ale ja powtarzam to co powiedział Károly Zsolnai-Fehér (doktor machinelearning i grafiki komputerowej). Wystarczy obejrzeć film jełopku...

Tak, wiem że generowanie grafiki z generatycznych przeciwników różni się od generowania grafiki z szumu, ale co z tego jeżeli można uzyskać podobne rezultaty kilkadziesiąt razy niższym kosztem?

Przykładowe Muse od google nie jest oparte o GAN.

Za nikim tego nie powtarzam. Sam napisałem powyższy post a nie skopiowałem go od kogoś. Na
@timechain: Film obejrzałem, nawet przejrzałem artykuł. Twierdzenie, że dana sieć jest wydajniesza, tylko dlatego że potrzebuje mniej czasu, żeby wygenerować obrazek (co właśnie robisz), jest bardzo dużym uproszczeniem i świadczy o tym, że tak naprawdę nie masz zielonego pojęcia o czym mówisz.

Ten artykuł podaje co najmniej jeden powód, dla którego ta sieć jest szybsza.
groman43 - @timechain: Film obejrzałem, nawet przejrzałem artykuł. Twierdzenie, że da...

źródło: Screenshot 2023-03-07 at 04.40.41

Pobierz
@groman43: powołuje się słowa doktora uczenia maszynowego. Wiem że generowanie z szumu jest w stanie tworzyć bardziej złożone i zaawansowane grafiki, ale jeżeli możemy uzyskać podobne rezultaty z dużo mniejsza mocą obliczeniowa to przecież warto.

https://www.infoq.com/news/2023/01/google-muse-text-to-image/

Google claims that with a TPUv4 chip, a 256 by 256 image can be created in as little as 0.5 seconds, as opposed to 9.1 seconds using Imagen, their diffusion model that they claim offers