Wpis z mikrobloga

@wytrzzeszcz: To będzie super ( ͡° ͜ʖ ͡°)
Kup do tego celu stary rejestrator, będzie fajnie grabił obraz na dysk i przez sieć (nie to co youtuberzy co nagrają i płaczą bo filmy pousuwali im a dyski im padły ( ͡ ͜ʖ ͡)
@majsterV2: GoogleGlass jest lipne bo nie ma żadnego mechanizmu odpowiedzialnego za prawidłową akomodacje oka. Więc gdy patrzysz na ekran to wszystko inne jest rozmazane. Tanią rzeczywistość rozszerzoną w której możesz obserwować jednocześnie świat rzeczywisty i obiekty wirtualne można zrealizować na bazie półprzeźroczystych zwierciadeł parabolicznych i smartfona.

Wizjer (viewfinder) - możesz mieć problem z interfejsem. Wizjery oparte na CRT mają wejście ze standardowym sygnałem wideo ale są dość duże. Wizjery LCD ze
@majsterV2: Może lepiej użyć ekranu smartfona?

- Nie trzeba grzebać w interfejsach.
- W zestawie masz cały system mobilny do generowania treści.
- Wyższa rozdzielczość

Koncepcje GoogleGlass odpuść. Przejdź od razu do rzeczywistości rozszerzonej.
@majsterV2: Stary. To jest wearable. Nie mów że przyczepisz sobie do głowy kamerę monitorinu? xD

Słabe mają kamery, to się nie sprawdzi w locie


Cała branża pcha realtime SLAM do systemów wbudowanych i smartfonów. Coś w tym musi jednak być. Sony do swoich Xperii wkłada sensory podobne do tych które montuje w swoich kamerach monitoringu. Seria Sony IMX "Exmor". iPhony też mają sensory Exmor.

@wytrzzeszcz: Budujesz okulary AR?
@AdireQ: Myślę o tym, ale na bazie wizjera (nawet wyjdzie taniej).
Dzięki czemu będę miał przed oczami normalny, desktopowy interfejs tak jak lubię najbardziej ( ͡° ͜ʖ ͡°)
Może być monochromatyczny, do tego Windows XP na pulpicie zdalnym będzie.
@majsterV2: Pytanie czy pulpit będzie czytelny. W HTC Vive (1080x1200) jest czytelny ale tylko dzięki temu że jest śledzenie pozycji głowy więc mogę oversamplować przestrzennie obraz poruszając głową jak gołąb ( ͡º ͜ʖ͡º).