Czy squid potrafi tworzyć cache dla stron z https?
Kilka lat temu miałem właśnie problem z cache dla stron z https, czy nadal tak jest? Czy mogę zbudować teraz proxy które będzie cachować ciężkie biblioteki stron?
@aptitude: jeśli byś sobie wystawił CA cert, zaufał w przeglądarkach w domu itp i między proxy a userów postawił np. BURP to tak. No chyba że mają cert pinning to nie
@diogene: W sumie racja, spróbuje z certyfikatami się pobawić.
bez sensu
Ma sens, gdy strona waży 4mb, a to tylko jeden plik *.js, a przeglądarkowe cache nie zawsze działa dobrze. Więc jak jestem w trasie, mogę odpalić squida w dockerze i jechać z swoimi cache stron, bo zapytania do api to kilka bajtów.
@aptitude: tak, stawiasz przed nim haproxy, który terminie ci ruch https i dalej do squida leci już tylko http, który sobie dowolnie cacheujesz. Zamiast squida i haproxy możesz też użyć varnisha.
Kilka lat temu miałem właśnie problem z cache dla stron z https, czy nadal tak jest?
Czy mogę zbudować teraz proxy które będzie cachować ciężkie biblioteki stron?
#squid #linux
bez sensu i tak w skrócie to nie
Ma sens, gdy strona waży 4mb, a to tylko jeden plik *.js, a przeglądarkowe cache nie zawsze działa dobrze.
Więc jak jestem w trasie, mogę odpalić squida w dockerze i jechać z swoimi cache stron, bo zapytania do api to kilka bajtów.
Jeszcze chce przetestować wtyczkę "LocalCDN"
Niektórzy to moja stara domena xD
Blog mojego najlepszego przyjaciela: @ppw
https://blog.elliot.com.pl/2013/04/hakierowanie-proca/
To bardzo stara technologia