How to stream your Raspberry Pi camera (using PiCamera2) as mjpg

Views: 25

A Raspberry Pi with an attached PiCamera can work as a simple surveillance system. A very simple way to stream the images is using MJPEG.

To quickly set up streaming MJPEG, I created a Python script that encodes the images in separate threads. Therefore the whole CPU of the Pi can be utilized. The maximum framerate is equal to what the camera can deliver (47 frames). On a Pi 4 this makes the CPU quite hot, so the script allows to throttle the throughput. 25 FPS is easily possible without any cooling.

Prerequisites

A Raspberry Pi with an attached camera module. I tested this on a Pi 2, 3 and 4, it probably works on a Pi 1 just as well, albeit with a severely reduced framerate.

Install the latest version of the OS:

sudo apt update
sudo apt upgrade

Install necessary python modules

sudo apt install python3-flask python3-libcamera python3-picamera2 python3-opencv

And then run the script

python pystream.py

The stream will be available at port 9000 of your Raspberry Pi: http://your-pi-IP:9000/mjpg

If you run this in a terminal, the process will of course stop once the window is closed, unless you run it using screen. If you haven’t installed it yet:

sudo apt install screen

Start the screen by just typing

screen

A short explanation will show, you can end that with <RETURN>. Anything you start in this will continue to run, even if you close the window.

To get back to a running screen process, just type

screen -r

The script (download here):

#!/usr/bin/env python3

from flask import Flask, Response
import cv2
from picamera2 import Picamera2
import libcamera
import time
import threading

# Creates an mjpg stream from a PiCamera. It's a quick and dirty example how to use your Pi as a surveillance camera
# Uses 2 separate threads to encode the captured image to maximize throughput by using all 4 cores
# The way this "double-buffering" is implemented causes it to only work correctly with one client. 


# Set your desired image size here
# The timing for approximating the frames per second depends largely on this setting
# Larger images means more time needed for processing
CAM_X = 1280
CAM_Y = 720


# Change this, depending on the orientation of your camera module
CAM_HFLIP = False
CAM_VFLIP = False

# Change this to control the usage and therefore temperature of your Pi. On my Pi 4 a setting of 25 FPS
# results in CPU usage of roughly 40% and no temperature throttling (no additional cooling here)
# Set to 0 to impose no restrictions (on my Pi 4 this results in ~47 FPS (maximum of my PiCamera model 2), on my Pi 2 ~17 FPS)
MAX_FPS = 25

# Flask is our "webserver"
# The URL to the mjpg stream is http://my.server:WEB_PORT/mjpg
WEB_PORT = 9000
app = Flask(__name__)

# Keeps all data for the various threads in one place
class MgtData(object):
    stop_tasks = False            # If set, all threads should stop their processing
    frame1_has_new_data = False   # Is being set when frame1 receives a new buffer to encode
    lock1 = False                 # Is being set when frame1 receives a new buffer to encode, and cleared when encoding is done
    frame2_has_new_data = False   # Same for frame 2
    lock2 = False

    img_buffer1 = None            # Receives the image as a byte array for frame 1
    img_buffer2 = None            # ... for frame 2
    encoded_frame1 = None         # Stores the JPG-encoded image for frame 1
    encoded_frame2 = None         # ... for frame 2

    # If there is new data available on frame 1, return True
    def frame1_new_data():
        return (MgtData.frame1_has_new_data and not MgtData.lock1)

    # If there is new data available on frame 2, return True
    def frame2_new_data():
        return (MgtData.frame2_has_new_data and not MgtData.lock2)


# Deliver the individual frames to the client
@app.route('/mjpg')
def video_feed():
    generated_data  = gen()
    if (generated_data):
        response = Response(gen(), mimetype='multipart/x-mixed-replace; boundary=frame') 
        response.headers.add("Access-Control-Allow-Origin", "*")
        return response
    return None

# Generate the individual frame data
def gen():
    while not MgtData.stop_tasks:  
        while (not (MgtData.frame1_new_data() or MgtData.frame2_new_data())):
            time.sleep (0.01) # Wait until we have data from one of the encode-threads

        frame = get_frame()
        yield (b'--frame\r\n'
               b'Content-Type: image/jpeg\r\n\r\n' + frame + b'\r\n')

# If one of the frames has data already processed, deliver the respective encoded image
def get_frame():
    encoded_frame = None
    if (MgtData.frame1_new_data() or MgtData.frame2_new_data()):
        if (MgtData.frame1_new_data ()):
            encoded_frame = MgtData.encoded_frame1
            MgtData.frame1_has_new_data = False
        elif (MgtData.frame2_new_data ()):
            encoded_frame = MgtData.encoded_frame2
            MgtData.frame2_has_new_data = False
    else:
        print ("Duplicate frame")

    return encoded_frame




# Start the server
def start_webserver():
    try:
        app.run(host='0.0.0.0', port=WEB_PORT, threaded=True, debug=False)
    except Exception as e:
        print(e)

# Definition for the encoding thread for frame 1
def encode1():
    newEncFrame = cv2.imencode('.jpg', MgtData.img_buffer1)[1].tobytes()
    MgtData.encoded_frame1 = newEncFrame
    MgtData.frame1_has_new_data = True
    MgtData.lock1 = False

# Definition for the encoding thread for frame 2
def encode2():
    MgtData.lock2 = True
    MgtData.frame2_has_new_data = True
    newEncFrame = cv2.imencode('.jpg', MgtData.img_buffer2)[1].tobytes()
    MgtData.encoded_frame2 = newEncFrame
    MgtData.lock2 = False



def run_camera():
    # init picamera
    picam2 = Picamera2()

    preview_config = picam2.preview_configuration
    preview_config.size = (CAM_X, CAM_Y)
    preview_config.format = 'RGB888'
    preview_config.transform = libcamera.Transform(hflip=CAM_HFLIP, vflip=CAM_VFLIP)
    preview_config.colour_space = libcamera.ColorSpace.Sycc()
    preview_config.buffer_count = 4 # Looks like 3 is the minimum on my system to get the full 47 FPS my camera is capable of
    preview_config.queue = True
    preview_config.controls = {'FrameRate': MAX_FPS and MAX_FPS or 100}

    try:
        picam2.start()

    except Exception as e:
        print(e)
        print("Is the camera connected correctly?\nYou can use \"libcamea-hello\" or \"rpicam-hello\" to test the camera.")
        exit(1)
    
    fps = 0
    start_time = 0
    framecount = 0
    try:
        start_time = time.time()
        while (not MgtData.stop_tasks):
            if (not (MgtData.frame1_new_data() and MgtData.frame2_new_data())):

                # get image data from camera
                my_img = picam2.capture_array()

                # calculate fps
                framecount += 1
                elapsed_time = float(time.time() - start_time)
                if (elapsed_time > 1):
                    fps = round(framecount/elapsed_time, 1)
                    framecount = 0
                    start_time = time.time()
                    print ("FPS: ", fps)

                # if one of the two frames is available to store new data, copy the captured image to the
                # respective buffer and start the encoding thread
                # At max we have 4 threads: our main thread, flask, encode1 and encode2
                if (not MgtData.frame1_new_data()):
                    MgtData.img_buffer1 = my_img
                    MgtData.frame1_has_new_data = True
                    MgtData.lock1 = True
                    encode_thread1 = threading.Thread(target=encode1, name="encode1")
                    encode_thread1.start()
                elif (not MgtData.frame2_new_data()):
                    MgtData.img_buffer2 = my_img
                    MgtData.frame2_has_new_data = True
                    MgtData.lock2 = True
                    encode_thread2 = threading.Thread(target=encode2, name="encode1")
                    encode_thread2.start()
            time.sleep (0.0005) # No need to constantly poll, cut the CPU some slack
            
    except KeyboardInterrupt as e:
        print(e)
        MgtData.stop_tasks
    finally:
        picam2.close()
        cv2.destroyAllWindows()



def streamon():
    camera_thread = threading.Thread(target= run_camera, name="camera_streamon")
    camera_thread.daemon = False
    camera_thread.start()

    if camera_thread != None and camera_thread.is_alive():
        print('Starting web streaming ...')
        flask_thread = threading.Thread(name='flask_thread',target=start_webserver)
        flask_thread.daemon = True
        flask_thread.start()
    else:
        print('Error starting the stream')

    while not MgtData.stop_tasks:
        time.sleep (25) # Just waiting to end this thread



if __name__ == "__main__":
    try:
        streamon()
    except KeyboardInterrupt:
        pass
    except Exception as e:
        print(e)
    finally:
        print ("Closing...")
        MgtData.stop_tasks = True

Installation Force.com IDE

Views: 318

Um die Entwicklungsumgebung für Salesforce zu installieren, muss man den Anleitungen bei developer.salesforce.com folgen. Wie leider üblich, erzählt diese Dokumentation nur die halbe Wahrheit. Zumindest bei meinen Versuchen hat es mit Eclipse 4.5 nicht funktioniert, es kam zu nicht-behebbaren Abhängigkeits-problemen.

Im Moment funktioniert es, wenn Eclipse Neon.2 (4.6.2) benutzt wird. Am einfachsten ist es, den Installer für Neon zu benutzen, da dann Eclipse IDE for Java Developers auswählen. Danach kann man der Dokumentation folgen, und es sollte funktionieren. Leider kommen ein paar der Pakete aus unsignierten Quellen, daher muss diese Installation nochmal extra bestätigt werden.

Atmel Mikrocontroller Programmieren mit Olimex AVR-ISP-MK2

Views: 371

Ich wollte ein Projekt mit AVR Mikrocontrollern machen. Zum einen, weil ich glaube, dass das für mein aktuelles Problem eine gute Idee ist, zum anderen, weil ich mal einen µC programmieren wollte. Auf Mikrocontroller.net gibt es ein Tutorial, das am Ende der Hardwareeinführung schön schreibt, dass man erst weiter machen soll, wenn die IDE mit der Hardware spricht….

Dafür habe ich mir bei Pollin den Olimex AVR-ISP-MK2 Programmer gekauft. (Bei Pollin 34,95€ + 4,95€ Versand, bei Olimex direkt 19,95€ + 15,76€ Versand).
Mit dem Atmel Studio 7 unter Windows 7 wollte der zunächst nicht laufen, die Fehlermeldung war “Unable to connect to tool AVRISP mkII (000200212345)”. In dieser Diskussion habe ich zum Glück eine Lösung dafür gefunden: Zadig mit dem Treiber libusb-win32. Allerdings habe ich auch Meldungen gefunden, dass das nicht zuverlässig sei, mal sehen.

Alleine mit dem Umstellen des USB-Treibers hat es bei mir immer noch nicht funktioniert. Erst, als der Olimex Programmer direkt an einem USB-Port am Rechner hing, und nicht – wie vorher – an einem USB-Hub, konnte ich das erste Programm tatsächlich zum Laufen bekommen.

Huawei Ascend Y200 (U8655) – Android 2.3 unter 100€

Views: 698

Direkt am ersten Verkaufstag habe ich mir gestern bei Lidl das Y200 gekauft. Für 99,99€ gab’s dafür das Telefon mit einer Fonic-SIM-Karte, die einem einen Monat kostenlose Datenverbindung liefert (500 MB HSDPA, ab da dann GPRS). Ich kann mich dem Test von Chip in allen Punkten anschließen, so brauch ich über die Ausstattung und Qualität nichts schreiben. Ich möchte aber wirklich auf die eingebaute Kamera hinweisen, denn die stinkt meiner Meinung nach erheblich und ist nicht mehr zeitgemäß.

Zum Radio hören muss man einen Kopfhörer eingesteckt haben, dafür reicht aber ein handelsüblicher Stereohörer. Irgendwie finde ich das ja gut, dann ist der Lautsprecher erstmal aus. Die ganzen Leute in Straßenbahnen mit ihren Plärrgeräten gehen mir schon genug auf die Nerven. Aber der eingebaute Verstärker ist erheblich schwächer als der von meinem MP3-Player. Das Telefon muss ich auf maximale Lautstärke stellen während die selben Stücken im MP3-Player angehört bei etwa 60% laufen. Wird die Kamera in Betrieb genommen, schaltet das Telefon die Wiedergabe von Radio direkt aus, auch wenn ich nicht sehe, warum Radio ein Foto beeinträchtigen sollte.

Aber ich hab das ja auch nicht gekauft, um etwas für’s Musikhören zu haben, oder zum Telefonieren (siehe auch Chip: der Gesprächspartner hört viel Rauschen), auch nicht, um gut Fotos zu machen, sondern um einen tragbaren Computer zu haben. Dass die anderen Funktionen mit dran sind, haben mir nur die Entscheidung einfacher gemacht. Insbesondere nachdem ich Android 2.2 auf einem Netbook gesehen habe, hat es mich sehr interessiert, ob das auf einem Telefon besser funktioniert. Und da kann ich nur sagen: ja, Android ist für Telefone besser geeignet als für Netbooks.

Dazu kommt noch, dass ich bisher keinen GPS-Empfänger mit Display habe, sondern nur einen Logger. Der macht zwar seine Arbeit gut, aber des öfteren fehlte es mir schon, dass ich nur hinterher wusste, wo ich genau war. Heute mach ich dann mal einen Vergleich der Aufzeichnungen zwischen den Empfängern.

Nach der Arbeit gestern hatte ich dann direkt angefangen, das Android SDK herunter zu laden, um erste Versuche im Telefonzerhacken machen zu können. Leider waren einige Downloads so langsam, dass das Paket vor dem Schlafen gehen nicht fertig wurde.

Raspberry Pi und die Mirrors

Views: 710

Ich habe meine Resourcen für Raspberry Pi zur Verfügung gestellt, auch hier ist ein Mirror der Files verfügbar. Eigentlich sogar 2, ein weiterer liegt noch auf meiner JiffyBox. Jetzt am Donnerstag sollen ja die Tests der ersten Charge über die Bühne sein.

Leider steht vor dem Erfolg der Schweiß, oder so ähnlich. Aus diesem Grund konnte das mit dem Mirror auch nicht ‘einfach so’ klappen. Zum einen wollte ich auf meinem virtuellen Server keinen FTP-Zugang einrichten und zum andern lässt der Tarif, den ich hier für meine Webseiten gebucht habe, Directory listing nicht zu. Ich wollte auch nicht unnötig viel Arbeit für die R-Pi-Leute machen, also musste mal eben eine eigene Lösung her. Bestimmt gibt’s dafür eine Lösung auch fertig irgendwo her, aber wo ist dann der Spaß?

Also die Aufgabenstellung: synchronisiere 2 Server mit einem 3. Server und erzeuge ein Directory Listing ohne das Apache-Modul. Meine Lösung sieht vor:

  1. rsync vom raspberry-pi Server auf meinen virtuellen Server
  2. index.html erstellen für jedes Verzeichnis, mit Auflistung aller Unterverzeichnisse und Dateien
  3. Alle Dateien (inklusive der erstellten index.html) vom virtuellen Server auf den Webhosting-Server synchronisieren.

Ist alles ja gar nicht so schwer. Zu 1. wird auf dem virtuellen Server rsync ausgeführt:

rsync -azPv rsync://rsync-source/ /var/www/mirror/

Ich weiß jetzt nicht so wirklich, ob die Leute von Raspberry Pi es so gut fänden, wenn ich die Serveradresse verrate, deshalb lasse ich die hier mal weg.

Zu 2. habe ich dann ein PHP-Skript geschrieben, dass rekursiv durch die Verzeichnisse geht und entsprechende Dateien schreibt. Ja, es ist Quick & Dirty…:

<?php
function createIndex($folderName,$displayRoot) {
    $output = "<html><head><title>$folderName</title></head><body><h1>Index of $displayRoot</h1><table>";
    $i=0;
    $allEntries = null;
    $currHandle = opendir($folderName);
    if ($currHandle !== FALSE) {
        $currEntry = readdir($currHandle);
        while ($currEntry !== FALSE) {
            $allEntries[$i++] = $currEntry;
            $currEntry = readdir($currHandle);
        }
        sort($allEntries);
        foreach ($allEntries as $currEntry) {
            $procThis = $folderName . '/' . $currEntry;
            if (is_dir($procThis)) {
                if ($currEntry != '.' && $currEntry != '..') {
                    createIndex($procThis, $displayRoot . '/' . $currEntry);
                }
                $fsize = 0;
            }
            else {
                $fsize = filesize ($procThis);
            }
            if ($currEntry != '.' && $currEntry != 'index.html') {
                $output .= "\n<tr><td><a href=\"$currEntry\">$currEntry</a></td>";
                if ($fsize > 0) {
                    $output .= '<td>' . $fsize . ' bytes</td><td>' . date ("Y-m-d H:i:s.", filemtime($procThis)) . '</td>';
                }
                else {
                    $output .= '<td></td><td></td>';
                }
            }
            $output .= '</tr>';
        }
    }
    $output .="</table></body></html>";
    $handle = fopen($folderName . '/index.html','w');
    fwrite($handle,$output);
    fflush($handle);
    fclose($handle);
}
createIndex("/var/www/mirror", "/mirror");
?>

Das ganze Verzeichnis wird dann zu 3. per lftp mit dem Webhosting-Server synchronisiert:

open ftp://user:password@ftp.loco-toys.de
mirror -R -v --only-newer /var/www/mirror/ /

Diese 2 Zeilen in eine Datei geschrieben (z.B. synch.lftp) und der Aufruf erfolgt dann mit

lftp -f synch.lftp

Diese 3 Schritte werden dann noch sinnvoll in der crontab eingetragen, und schon haben wir 2 weitere Mirrors für Raspberry Pi.

Bleibt nur noch zu hoffen, dass ich überhaupt einen der Dinger aus der ersten Charge bekomme, und dass meine Mirrors nicht so beliebt sind, dass mir die Domains geperrt werden.

Java mp3info Bibliothek zu vergeben

Views: 767

Ich habe vor längerer Zeit die Java-Bibliothek mp3info geschrieben. Damit ist es möglich, in weiten Teilen ID3v2-Tags zu lesen, manipulieren und schreiben. Ich komme leider einfach nicht mehr dazu, mich um diesen Code zu kümmern. Wenn jemand Interesse daran hat, dieses Projekt zu übernehmen und es wieder auferstehen zu lassen, würde ich mich sehr freuen.

Die Implementierung ist zugegebenermaßen nicht das beste Beispiel für Javacode, ist aber recht fortgeschritten. Alle Funktionen zum Lesen und Schreiben der Tags funktionieren stabil, eine weitreichende Unterstützung von ID3-Frames ist eingebaut, eine Möglichkeit zum Erweitern außerhalb des Codes ist auch vorhanden. Die Library wurde in einigen Projekten genutzt und ist auch einigermaßen dokumentiert. Damals zumindest war es die vollständigste Implementierung des Standards, die in Java existierte.

Die Lizenz ist LGPL und wenn jemand ernstes Interesse an der Weiterentwicklung des Projekts hat, würde ich mich freuen, die Kontrolle abzugeben.

Der derzeitige Zustand kann auf SourceForge begutachtet werden.

FrOSCon 2011 Tag 2

Views: 664

Wie ich es mir schon dachte, 10:00h ist nicht die Zeit für mich, um an einem Sonntag sowas wie Arbeit zu machen. Dank des Streamings konnte ich mir beim Kaffee Kristian Köhntopps Eight rollouts a day keeping downtime away (Hier die Folien) ansehen. Sehr interessant, genauso wie auch Redaktionelle Hochlast -Webseiten am Beispiel von Stern.de.

Frau Andresen muss ich besonders danken für Das perfekte Team – bestehend aus lauter klugen Köpfen, hat sie mir doch damit sehr genau vor Augen geführt, was eigentlich das Problem in meinem jetzigen Job ist. Weitere aufschlussreiche Präsentationen von ihr sind bei Slideshare zu finden.

Dann ging es weiter mit PHPopstars, ein sehr unterhaltsam gemachter Vortrag zum Thema Vorträge. Dank Kristian wissen wir jetzt endlich, warum Elefanten keine guten Haustiere sind, und Tobias hat mich auf Zeta Components aufmerksam gemacht. Während die Aufräumarbeiten bereits begannen folgte dann noch Drupal – breaching our way in. Vielen Dank auch dafür, wie allerdings bemerkt wurde, war der Rahmen eines Vortrags für das Thema etwas knapp. Aber eine schöne Einführung in Drupal, nächstes Mal wird das eher ein Workshop… oder ein 2 Stundenvortrag.

FrOSCon 2011

Views: 658

Ich bin gerade von der FrOSCon wieder nach hause gekommen. Wie immer war es sehr informativ. Ich danke den Veranstaltern und Vorträgern für ein gelungenes Programm. Sehr schade ist nur, dass vieles, was mich interessiert, parallel läuft. Wenn es nach meinen Interessen ginge, würde die Veranstaltung aber ewig dauern.

Recht interessant am Rande fand ich freedroidz, spielerisch programmieren lernen.

Morgen geht’s weiter, jeder Vortrag wieder eine Entscheidung zwischen 2 oder 3 Themen, die mich interessieren. Am schlimmsten ist fast schon, dass um 10:00h direkt 4 Sachen sind, die ich gerne besuchen würde, aber ehrlich gesagt, es ist Sonntag… um die Zeit trinke ich gerade meinen ersten Kaffee.