Bauen Sie einen Begleitroboter mit Raspberry Pi und Arduino

Find AI Tools in second

Find AI Tools
No difficulty
No complicated process
Find ai tools

Bauen Sie einen Begleitroboter mit Raspberry Pi und Arduino

Inhaltsverzeichnis

  1. Einleitung
  2. Motivation und Hintergrund des Projekts
  3. Ziele des Projekts
  4. Erste Iteration: Ein animierter Würfel
  5. Zweite Iteration: Von handgefertigt zu 3D-gedruckt
  6. Dritte Iteration: Kleinere und tragbare Version
  7. Vierte Iteration: Modularität und Verbesserungen
  8. Nutzung des Rahmenwerks und Perspektiven
  9. Die wachsende Gemeinschaft um das Projekt
  10. Zukünftige Entwicklungen und Herausforderungen

🤖 Begleitroboter: Eine Reise durch das Making-Projekt

Willkommen bei "Dan macht Sachen"! Mein Name ist Dan und ich habe einen Begleitroboter entwickelt. Dieses Projekt befindet sich schon seit einigen Jahren in Arbeit und ich möchte diese Gelegenheit nutzen, um über die Geschichte und die Motivation hinter dem Projekt zu sprechen und Ihnen einen groben Überblick zu geben. Aber wer bin ich überhaupt? Ich bin ein Software-Engineering-Manager im Nordosten Englands und habe etwa 20 Jahre Erfahrung in der Softwareentwicklung. Allerdings liegt mein beruflicher Hintergrund nicht im Bereich der Robotik, Elektronik oder Echtzeitsysteme. Das bedeutet, dass ich alles, was ich für das Design und den Bau dieses Projekts wissen musste, durch frei verfügbare Quellen wie YouTube-Videos und Online-Kurse gelernt habe. Warum erzähle ich Ihnen das? Weil, wenn ich einen Roboter wie diesen bauen kann, Sie das auch können! Tatsächlich können Sie diesen Roboter bauen, wenn Sie möchten, und darüber werden wir später noch sprechen.

1. Einleitung

Als ich das Projekt startete, hatte ich mehrere Ziele, die ich erreichen wollte. Ich wollte, dass der Roboter vollständig autonom ist und sich mit natürlicher Spracheingabe und einer Kamera zur visuellen Erkennung mit Menschen interagieren kann. Außerdem sollte das Projekt modular und erweiterbar sein, so dass ich neue Funktionen hinzufügen oder neue Technologien integrieren kann, ohne das gesamte System neu entwerfen zu müssen. Es war mir auch wichtig, dass das Projekt Open Source ist, aber mehr als das, ich wollte, dass es zugänglich ist. Es ist eine Sache, Designs und Codes frei verfügbar zu machen, aber wenn ich teure Aktoren integriere, die für die meisten Hobbyisten unbezahlbar sind, schränkt das ein, wer dieses System für sich selbst bauen kann. Vor allem aber wollte ich, dass es Spaß macht, daran zu arbeiten, und ich wollte mich auf die Verwendung von Technologie konzentrieren, die mich wirklich interessiert und begeistert.

2. Motivation und Hintergrund des Projekts

Die ursprüngliche Idee war ein animierter Würfel. Der Roboter sollte als fester Würfel beginnen, der sich dann vom Boden erhob und sich schwenken und neigen konnte, um Gesichter zu animieren und zu verfolgen. Die Öffnung im Würfel bildete ein abstraktes Gesicht, hinter dem sich eine Neopixel-LED-Matrix befand, um das Licht durch das Gesicht scheinen zu lassen. Außerdem hatte er eine Kamera in einem der größeren Löcher. Ich mochte dieses Design, aber das Hinzufügen der notwendigen Elektronik, Batterien und Aktoren ließ sehr wenig Platz für Bewegung. Deshalb entschied ich mich, nach anderen Formen zu suchen, die besser funktionieren würden.

3. Ziele des Projekts

Die Ziele des Projekts waren klar definiert. Ich wollte Motion Sensing einsetzen, um die Anwesenheit von Personen in der Nähe zu erkennen. Dadurch können bestimmte Verhaltensweisen ausgelöst und der Roboter in den Stromsparmodus versetzt werden, wenn niemand anwesend ist. Außerdem wollte ich verschiedene Verhaltensweisen basierend auf der Interaktion mit Menschen auslösen können. Dafür fügte ich Gesichtserkennung und -erkennung sowie Spracherkennung hinzu. Python machte es relativ einfach, diese Funktionen zu implementieren, obwohl es definitiv Herausforderungen gab, alles zusammenzuführen. Ich setzte auch die Neopixel-adressierbaren LEDs aus dem vorherigen Design ein, was zwar einige Probleme verursachte, aber für die Emotionserkennung und die Echtzeit-Überwachung des Softwarezustands sehr nützlich war.

4. Erste Iteration: Ein animierter Würfel

Die erste Iteration des Begleitroboters war der animierte Würfel. Es handelte sich um einen festen Würfel, der sich mechanisch bewegen und Gesichter verfolgen konnte. Die Elektronik, Batterien und Aktoren waren in diesem Design sehr eng verbaut, was die Bewegungsfreiheit einschränkte. Daher entschied ich mich, nach besseren Formen zu suchen, die mehr Raum für Verbesserungen bieten würden.

5. Zweite Iteration: Von handgefertigt zu 3D-gedruckt

In der zweiten Iteration des Projekts konzentrierte ich mich auf eine handgefertigte Version aus Holz. Später wechselte ich jedoch zu einem 3D-Drucker, was die Entwicklung erheblich beschleunigte. Ich verfeinerte die Konstruktion des Halsmechanismus, um den Kopf vom Körper abheben und schwenken lassen zu können. Außerdem experimentierte ich mit der Herstellung meiner eigenen Servohörner. Zu diesem Zeitpunkt verwendete ich Tinkercad zur Modellierung, wechselte aber später zu Onshape, da es benutzerfreundlicher und besser für die gemeinsame Nutzung von Designs mit anderen war.

6. Dritte Iteration: Kleinere und tragbare Version

Die dritte Iteration des Begleitroboters konzentrierte sich darauf, den Roboter kleiner und tragbarer zu machen. Ich verwendete Mikroservos anstelle von Standard-Servos und reduzierte die Größe des Körpers und des Kopfes erheblich. Diese Version war viel mobiler als die vorherige und konnte erstmals auch mit Batterie betrieben werden.

7. Vierte Iteration: Modularität und Verbesserungen

In der vierten Iteration des Begleitroboters lag der Fokus auf Modularität und Verbesserungen. Die Beine wurden so konstruiert, dass ich bei Bedarf das Übersetzungsverhältnis oder die verwendeten Servos ändern kann, indem ich nur die relevanten Teile neu drucke und schnell zusammenbaue. Auch der Körper und der Kopf wurden in einzelne Panels unterteilt, um einen einfachen Zugang und Austausch zu ermöglichen. In dieser Version habe ich die Bewegung der Servos an den Arduino delegiert, wodurch ich den Vorteil der inversen Kinematik nutzen konnte, um die Beinpositionen zu berechnen und unabhängig vom Raspberry Pi eine Animation zu erstellen. Dies war besonders nützlich, da der Raspberry Pi einen erheblichen Strombedarf hat. Dadurch konnte der Roboter bei Veranstaltungen ohne den Raspberry Pi für längere Zeiträume arbeiten, wenn auch ohne die Gesichtserkennung und andere Funktionen auf höherer Ebene.

8. Nutzung des Rahmenwerks und Perspektiven

Das Begleitroboter-Projekt bietet eine Vielzahl von Anwendungsmöglichkeiten. Menschen aus der Community arbeiten bereits an der Integration von Chat GPT, Spracherkennung und Audioausgabe. Es gibt auch eine Zeitraffer-Funktion, mit der Ereignisse aus der Perspektive des Roboters aufgezeichnet werden können. Eine interessante Möglichkeit ist die Implementierung einer TV-Fernbedienung, bei der der Roboter mittels Objekterkennung den TV im Raum findet und mit einem Infrarotsender den Kanal oder die Lautstärke ändern kann. All diese Dinge sind bereits mit dem vorhandenen Rahmenwerk möglich, und es gibt noch viele weitere Möglichkeiten.

9. Die wachsende Gemeinschaft um das Projekt

Die Gemeinschaft um das Begleitroboter-Projekt wächst stetig. In unserem GitHub-Repository finden Sie den gesamten Code und die Designs sowie umfangreiche Wikis, die erklären, wie alles gebaut wird. Darüber hinaus haben wir kürzlich einen Diskussionsbereich eingerichtet, in dem Menschen, die an dem Projekt mitarbeiten oder ihre eigenen Versionen bauen, Ideen, Probleme und Funktionen besprechen können. Wir würden uns freuen, wenn Sie sich uns anschließen und Hallo sagen würden. Die entsprechenden Links finden Sie in der Beschreibung.

10. Zukünftige Entwicklungen und Herausforderungen

Es gibt immer Verbesserungen, die vorgenommen werden können. Ich plane, das Design weiter zu optimieren, indem ich die Beine agiler mache und die Anzahl der Teile reduziere, die für den Bau des Roboters benötigt werden. Es wäre auch interessant, das Design kleiner oder modularer zu gestalten, damit die Community die Teile verwenden kann, die sie interessieren. Darüber hinaus gibt es das Potenzial, auch andere Controller neben der Kombination von Raspberry Pi und Arduino zu verwenden. Wir haben bereits jemanden, der einen Jetson Nano verwendet, und wenn neue Technologien verfügbar werden, werden wir wahrscheinlich Unterstützung für einige dieser Boards hinzufügen können. Die Erstellung benutzerdefinierter PCBs ist relativ einfach möglich.

Abschließend möchte ich noch einmal über die wachsende Gemeinschaft um das Projekt sprechen. Wir haben ein GitHub-Repository, das den gesamten Code und die Designs enthält, sowie umfassende Wikis, die erklären, wie alles gebaut wird. Zudem haben wir kürzlich einen Diskussionsbereich gestartet, in dem sich die Menschen austauschen können. Ob Sie helfen möchten oder nur auf dem Laufenden bleiben wollen - wir würden uns freuen, von Ihnen zu hören. Abonnieren Sie gerne meinen Kanal für regelmäßige Updates zum Projekt. Danke fürs Zuschauen!

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.