Eksperymentowałem z moim pi i zaprojektowanym do tego modułem kamery. Do tej pory z jedną kamerą było świetnie. Zacząłem od własnego kodu w Pythonie, używając interfejsu „picamera”. Z biegiem czasu zdałem sobie sprawę, że inni wykonali dla mnie wiele pracy.
Ostatnio używam kodu ruchomego oka ccrisana, który używa mmal i ruchu w tle.
Moje pytanie brzmi: planuję, że w pewnym momencie uruchomię 4-6 kamer który będzie przechowywać zdjęcia co 3 sekundy na moim serwerze sieciowym (z systemem Windows).
Wiele ograniczeń tej konfiguracji jest po stronie raspberry pi. Uruchamianie serwera internetowego, ruchu i interfejsu do przesyłania strumieniowego danych.
Czy nie ma sposobu, aby streaming mógł pochodzić z mojego znacznie wydajniejszego serwera Windows, podczas gdy wszystko, co muszą zrobić kamery, to kodować i przesyłać dane. Nie mam zbyt dużej wiedzy na temat architektury sieci kamer.
dzięki
EDYCJA: Używam RPI B i RPI B (ograniczona pamięć RAM) z raspbian lite (jessie)