Ich entwickle maßgeschneiderte tinyml-Modelle für Mikrocontroller und Einplatinencomputer


Über diesen Service
Automatische Übersetzung
Bringe Intelligenz an den Rand! Ich entwickle und optimiere leistungsstarke KI-Modelle für ressourcenbeschränkte Hardware wie ESP32, ESP32-S3, Raspberry Pi und STM32. Wenn du komplexes Machine Learning auf Mikrocontrollern mit minimalem RAM und Flash ausführen möchtest, bin ich hier, um zu helfen.
Meine Fachgebiete umfassen:
- Maßgeschneiderte KI-Entwicklung: Optimierte Architekturen (CNN, RNN, TinyYOLO, MobileNet) für Edge-Geräte.
- Model-Optimierung: Fortgeschrittene Post-Training Quantisierung (INT8/Float16) und Pruning, um Größe und Energieverbrauch zu reduzieren.
- Deployment: Produktionsreife TensorFlow Lite Micro (TFLite) und C++-Code für Arduino/ESP-IDF.
- Computer Vision: Bildklassifikation und Objekterkennung für ESP32-Cam.
- Signalverarbeitung: KI für IMU-Sensoren, Schlüsselworterkennung und Anomalieerkennung.
Unterstützte Technologien:
- Frameworks: TensorFlow Lite, PyTorch, Edge Impulse, Keras.
- Hardware: ESP32-Serie, Raspberry Pi 4/5/Pico, Arduino, ARM Cortex-M.
Ich schließe die Lücke zwischen schwerer Data Science und eingebetteter Elektronik.
Kontaktiere mich vor der Bestellung, um deine Hardware-Beschränkungen zu besprechen
Lerne Saran Khaliq kennen
Building smarter solutions with Computer visions, AI and Robotics
- AusPakistan
- Mitglied seitApr. 2021
- ⌀ Antwortzeit1 Stunde
- Letzte Lieferung1 Woche
Sprachen
Urdu, Hindi, Englisch
Automatische Übersetzung
Meine weiteren Dienstleistungen im Bereich KI-Entwicklung
FAQ
Automatische Übersetzung
1. Kann jedes KI-Modell auf einem ESP32 oder ESP32-S3 laufen?
Nicht direkt. Standardmodelle sind zu groß für den RAM des Mikrocontrollers. Ich spezialisiere mich auf Quantisierung (Umwandlung von 32-Bit in 8-Bit) und Pruning, um Modelle zu komprimieren, sodass sie auf dem begrenzten Speicher des ESP32 laufen, ohne signifikanten Genauigkeitsverlust.
2. Welche Frameworks nutzt du für Embedded AI?
2. Welche Frameworks nutzt du für Embedded AI? Ich arbeite hauptsächlich mit TensorFlow Lite Micro (TFLite), Edge Impulse, ESPDL, ESP-PPQ (Quantisierungstools) und PyTorch. Für Deployment stelle ich C++- oder Arduino-kompatiblen Code bereit, der via ESP-IDF oder Arduino IDE auf dein Gerät geflasht werden kann.
3. Muss ich den Datensatz für das Training bereitstellen?
Idealerweise ja. Für spezielle Aufgaben wie bestimmte Objekterkennung oder einzigartige Sensorsignale ist ein hochwertiger Datensatz erforderlich. Falls du keinen hast, kann ich bei der Beschaffung von Open-Source-Daten helfen oder dir raten, wie du sie von deiner Hardware sammeln kannst.
4. Was ist der Unterschied zwischen Cloud AI und Edge AI (TinyML)?
Ja. Wenn dein aktuelles Modell dein ESP32/Pi ausbremst oder abstürzt, kann ich Optimierungstechniken wie Layer-Fusion und INT8-Quantisierung anwenden, um die Inferenzgeschwindigkeit (FPS) zu erhöhen und den Speicherbedarf zu verringern.
5. Kannst du mein bestehendes Modell optimieren, damit es schneller läuft?
Ja. Wenn dein aktuelles Modell dein ESP32/Pi ausbremst oder abstürzt, kann ich Optimierungstechniken wie Layer-Fusion und INT8-Quantisierung anwenden, um die Inferenzgeschwindigkeit (FPS) zu erhöhen und den Speicherbedarf zu verringern.

