Pytanie:
Homebrew Security Camera Network
CareFree
2016-07-20 19:25:52 UTC
view on stackexchange narkive permalink

Eksperymentowałem z moim pi i zaprojektowanym do tego modułem kamery. Do tej pory z jedną kamerą było świetnie. Zacząłem od własnego kodu w Pythonie, używając interfejsu „picamera”. Z biegiem czasu zdałem sobie sprawę, że inni wykonali dla mnie wiele pracy.

Ostatnio używam kodu ruchomego oka ccrisana, który używa mmal i ruchu w tle.

Moje pytanie brzmi: planuję, że w pewnym momencie uruchomię 4-6 kamer który będzie przechowywać zdjęcia co 3 sekundy na moim serwerze sieciowym (z systemem Windows).

Wiele ograniczeń tej konfiguracji jest po stronie raspberry pi. Uruchamianie serwera internetowego, ruchu i interfejsu do przesyłania strumieniowego danych.

Czy nie ma sposobu, aby streaming mógł pochodzić z mojego znacznie wydajniejszego serwera Windows, podczas gdy wszystko, co muszą zrobić kamery, to kodować i przesyłać dane. Nie mam zbyt dużej wiedzy na temat architektury sieci kamer.

dzięki

EDYCJA: Używam RPI B i RPI B (ograniczona pamięć RAM) z raspbian lite (jessie)

Czy jest jakiś konkretny projekt, którego aktualnie używasz do strumieniowego przesyłania kanałów? Wygląda na to, że już planujesz przesyłać obrazy przez cały czas na serwer, więc wystarczy wybrać metodę przesyłania strumieniowego, która działa z obrazów na serwerze. Czy jest w tym coś więcej?
Tak, dokładnie. Mój serwer ma wszystkie kopie obrazów nieruchomych. Zastanawiam się, czy komputer z systemem Windows może w jakiś sposób obsługiwać przesyłanie strumieniowe do klientów zewnętrznych, a nie do serwerów WWW na każdym raspberry pi.
W takich chwilach chciałbym, żeby pewne oprogramowanie Windows działało na Pi ... Sprawdź BroadCam NCH Software, aby uzyskać zabawny projekt poboczny. Świetnie sprawdza się w przypadku tego, czego potrzebujesz ... Jeśli masz 5 zapasowych pudełek na okna
Trzy odpowiedzi:
goldilocks
2016-07-20 20:08:02 UTC
view on stackexchange narkive permalink

Czy nie ma sposobu, aby streaming mógł pochodzić z mojego znacznie wydajniejszego serwera Windows?

Nie, strumień wideo pochodzi ze sprzętu na pi. Możesz przesyłać strumieniowo do innego urządzenia o większej przepustowości, jeśli chcesz ponownie przesłać strumień do wielu punktów, ale wydaje się, że nie pasuje to do twojego scenariusza.

Używam RPI B

Domyślam się, że serwer strumieniowy UV4L zużyje 25-50% procesora podczas transmisji w rozdzielczości 1080p, 30 fps (najczęściej używam Pi 2 z kamerą). Jednak nie sądzę, aby zajmował dużo pamięci RAM, po prostu wymagał odłożenia fragmentu na GPU. Zauważ, że nie musisz uruchamiać serwera WWW obok tego, chyba że ruch tego wymaga, U4VL ma interfejs HTTP.

W pewnym sensie znalazłem sposób, aby to zrobić. Zainstaluj motioneye na komputerze z systemem Linux lub maszynę wirtualną w systemie Windows i skieruj tam wszystkie strumienie z kamery. Następnie możesz połączyć się z motioneye na tej maszynie i zobaczyć wszystkie strumienie.
Jeśli znalazłeś sposób na zrobienie tego, co chcesz (w przybliżeniu) i masz kilka minut, zostaw odpowiedź samodzielnie. Zamiast tego powinieneś być w stanie to zaznaczyć - nie obrażę się;) - chociaż system może sprawić, że zaczekasz 24 godziny czy coś.
brandi
2016-07-25 21:13:49 UTC
view on stackexchange narkive permalink

Użyłbym UV4L do przesyłania strumieniowego każdego strumienia audio-wideo z każdej kamery do bramy janus zainstalowanej na twoim serwerze. Wszystko jest oparte na sieci, więc wszelkie wysiłki związane z dostosowywaniem należy ograniczyć do minimum. Demo OS całkowicie działający na Rpi (gdzie pojedynczy RPI może obsługiwać videroom) można również pobrać ze strony UV4L i nie wymaga on żadnej konfiguracji. Janus oferuje również nagrywanie strumieniowe audio i wideo.

F1Linux
2019-03-15 18:26:30 UTC
view on stackexchange narkive permalink

open-ipcamera to zbiór skryptów bash, które automatyzują konfigurację Raspberry Pi w rozwiązanie do wykrywania ruchu / przesyłania strumieniowego, które można szybko dostosować do własnych wymagań.

A kodowanie jest optymalizowane przez open-ipcamera używającą CPU Affinity do ring-fence core 3 do wyłącznego użytku Motion do kodowania przechwyconych obrazów. Rdzenie 0-2 służą do wszystkiego innego.

Po wprowadzeniu pewnych poprawek można dostosować open-ipcamera tak, aby upuszczała obrazy na udział NFS zamontowany na chyba serwer WWW. Obecna konfiguracja open-ipcamera polega na zapisywaniu przechwyconych obrazów na dysku flash USB. Następnie skrypt przenosi obrazy do Dropbox i usuwa ich lokalne kopie, aby zatrzymać zapełnienie pamięci flash USB do 100%. TO to obszar open-ipcamera , który musisz zhakować, aby osiągnąć pożądane zachowanie.

W przeciwnym razie konfigurowanie * open-ipcamera jest całkiem proste: sklonuj repozytorium z github do domu użytkownika Pi, podłącz swoje dane lokalne do (2) plików zmiennych i wykonaj skrypt instalacyjny. Nie musisz edytować żadnych plików konfiguracyjnych na Pi. Większość złożoności została wyjęta z podłączania danych do zmiennych, więc *** open-ipcamera * nie wymaga dużego obciążenia umiejętnościami i jest dobrze udokumentowana:

Pobieranie repozytorium open-ipcamera

Wiki open-ipcamera

Kanał YouTube open-ipcamera

HTH-



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...