Wpis z mikrobloga

Wepchnąłem do Vive webkamerę od laptopa w nadziei na biedośledzenie wzroku. Wygląda obiecująco. Tylko że oświetlenie oka zależy bezpośrednio od jasności wyświetlanej sceny. Mogę dodać dodatkowe LEDy IR o ile optyka kamery nie blokuje podczerwieni. Światło podczerwone emitowane przez sensor zbliżeniowy niby widać ale możliwe że jest ono mocno osłabione.

#htcvive #diy #vr #cebula
AdireQ - Wepchnąłem do Vive webkamerę od laptopa w nadziei na biedośledzenie wzroku. ...
  • 11
@ZaQ_1: Z takim maleństwem może być ciężko, soczewka to mniej niż 1mm. Tutaj sensor obrazu jest bezpośrednio przylutowany do PCB. Dodatkowo słyszałem że w takich miniaturowych sensorach filtr podczerwieni jest napylany bezpośrednio na soczewkę.
@Futhark: Od kilku dni po głowie chodzi mi koncepcja sieci neuronowej która mapowałaby obraz oka z kamery na wektor wskazujący na punkt skupienia wzorku na ekranie. Planuję wygenerować zbiór uczący bazując na pozie heatsetu w przestrzeni względem wirtualnego obiektu na którym skupię wzrok (poza headsetu = poza kamery). Będę patrzył na obiekt o znanej pozycji kręcąc przy tym głową a moje oczy będą się mimowolnie poruszać względem oczodołu utrzymując stałą orientacje
@Futhark: Niestety na sensowny foveated rendering za wolne. Ruchy sakkadowe oka które skanują otoczenie w dużej rozdzielczości trwają tak krótko i są tak nagłe że kamerka sporo z nich przegapi. Do foveated rendering bardziej nadają się asynchroniczne kamery "event based" albo skanery MEMS taki jak ten od AdHawk Microsystems. Zastanawiam się czy nie dałoby się wykorzystać do tego kamerki z migawką "rolling shutter" i wiedząc że każda linia zawiera obraz oka