6. September 2021

Ankündigung von Updates...

Hallo zusammen,

hiermit kündige ich ein paar geplante Updates zu den bisherigen Aktivitäten an.

Es ist ein "neues" Mitglied in der Werkzeug-/Geräte-Familie dazu gekommen. --->

Ein 3D-Drucker von Anycubic.

  •     Der MEGA X!

Dieser will natürlich beschäftigt werden. Daher ist das "neuste" (Zwischen-) Projekt, ein nicht minder-zeitaufwändiges Unterfangen. 

  •     Ein Gehäuse für die bisherigen Komponenten des Roboters. (Weiteres natürlich in den folgenden Veröffentlichungen.)


bit denn

Thomas

23. November 2020

"neue" Augen

 Hi @all,

Ich bin eigentlich auf der Suche nach dem "neueren" Xbox-Kinect-Sensor, der von der Xbox One, gewesen. Dann habe ich beim "großen" Online-Auktions-Haus einen ASUS Xtion Pro-Sensor gefunden. Dieser schien recht günstig zu sein, daher habe ich zugeschlagen.

Leider hat sich bei der Lieferung herrausgestellt, dass es nicht wie beschrieben der Xtion Pro "Live"-Sensor war, sondern es ist "nur" der Sensor ohne das "Live". Daher fehlt bei diesem Sensor nun die RGB-Camera.

Durch Versuche an meinem Notebook, hat sich herrausgestellt, dass die Unterstützung dieses Sensors (eigentlich nur USB2.0) nicht an USB3.0-Ports gegeben ist.

Nach einiger Recherche habe ich einen "Hotfix" gefunden, welcher die USB3.0-Unterstützung herstellt.

Die Installation der Treiber / Software von Asus beinhaltet einige Test-Programme. Hiermit lässt sich unter anderem der Mauszeiger mit Gesten-Bewegung steuern. Da dies funktionierte, habe ich den nächsten Schritt gewagt, den Sensor an meinen Roboter anzuschließen, und in ROS zu konfigurieren.


sudo apt-get update

sudo apt-get upgrade

sudo apt-get install ros-noetic-openni2-0 ros-noetic-openni2-dev

Dies hat dann die Treiber für den Primesense-Sensor installiert. Ich musste dann feststellen, dass der Eintrag der UDEV-Rules nicht ordnungsgemäß eingetragen waren. Diese Angaben habe ich dann nach einiger Recherche im Netz gefunden, und eingetragen.

Danach hat das ganze auch mit meinem RPI funktioniert.



16. November 2020

Nur ein "kleiner" Neuaufbau.

 Hi,

 

ich habe in den vergangenen Tagen (am Wochenende) meinen Roboter nochmals "neu/anders" aufgebaut bzw. die Verteilung der einzelnen Komponenten etwas verändert.

Dies möchte ich euch natürlich nicht vorenthalten.

Hier ein "paar" ausgewählte Bilder:




Nun muss ich wie schon angekündigt, das große Ganze in ROS impementieren. Ich hoffe ich bekomme den Kinect-Sensor in ROS-Noetic zum "laufen".

 

bit denn

12. November 2020

ROS World 2020

Hi Leutz!

Ihr wisst, dass ich ein "Anhänger" vom Robot Operating System - ROS bin. Daher wollte ich nur auf die erfolgreiche Teilnahme an der diesjährigen ROS-World-2020 hinweisen.

In diesem Jahr 2020 musste die jährliche ROSCon durch die COVID-19-Situation "virtuell" stattfinden. Daher wurde der Zugang zur Convention allen auf der Welt "for FREE" zur Verfügung gestellt.

Dadurch profitieren durchaus auch die Hobbyisten, wie ich!


Link: https://roscon.ros.org/world/2020/

 

Ich freue mich jetzt schon auf das nächste BIG-ROS-Event!

"kleines" Update

Hallo, seit langem melde ich mich mal zurück!

Ich berichte "nur", was so an meinem Roboter geschehen ist, bzw. was noch in der "Pipeline" ist.

Done:

Software:
  • Raspberry Pi über eine SSD "bootable" gemacht
  • Installation von Ubuntu 20.04 LTS mit ROS Noetic
Hardware:
  • Stromversorgung durch stabileren Step-Down-Regler bis zu 12A 4,5-30V
  • den "neu gewonnenen" Laser-Abstands-Sensor (Benewake TF-03 180m Range)

ToDo:

  • Konstruktion von einem Gehäuse
  • Sensor- / Kamera-Halterung kontruieren (Kinect-Sensor, Lidar-Sensor, ...)
  • Auswahl von Stromquelle abgesehen von den vorhandenen 12V Auto-Batterien (sehr schwer!)
  • Integration vom Laser-Abstands-Sensor (Benewake TF-03 180m Range)
  • Es fehlt natürlich auch noch ein IMU-Sensor um die Odometriedaten, durch Fusionierung der Daten, zu vervollständigen.
  • Tausch des Raspberry Pi mit einem NVIDIA Jetson Nano 2 / 4 GB (vielleicht auch ein Xavier???)

Naja, das war es erstmal. Ich hoffe ich kann die Frequenz der Post "ein wenig" erhöhen! 

In diesem Sinne... bit denn

19. Januar 2020

Gewonnen!

Hey Leutz,

das ich mich mit dem Thema ROS (Robot-Operating-System; ros.org) befasse, hatte ich in letzten Posts erwähnt. Ich nutze momentan sehr häufig die Lern-Plattform von dem Unternehmen „theConstruct“ aus Spanien.
http://www.theconstructsim.com/

Hier kann man als „Hobbyist“ das ROS-Development-Studio auch 30 Stunden im Monat frei benutzen.
http://rds.theconstructsim.com/

TheConstruct veranstaltet wöchentlich eine mini Challenge auf Facebook/Twitter. Hier hat man die Chance ein T-Shirt zu gewinnen, falls man das manipulierte ROSject-Image wieder wie gefordert editiert. DasVerhalten des simulierten Roboters sollte dann fehlerfrei durchlaufen. Hat man dies als erster Einsender auf Twitter veröffentlicht, ist man „Sieger“ und gewinnt womöglich ein T-Shirt mit eindeutiger Aussage!

„I‘m a ROS-Developer

Mein „I‘m a ROS-Developer“-T-Shirt

Da ich ein solches Shirt besitze (nicht gekauft), könnt ihr euch ja vorstellen was passiert ist... ;)

15. Januar 2020

LIDAR löppt!

Moin Leute,

ich habe vor kurzer Zeit gewagt einen LIDAR-Sensor in Fern-Ost zu bestellen. Dieser kam dann auch promt nach einigen Wochen an. Ich konnt bei dem "günstigen" Kurs (~30€, ebay) nicht widerstehen.

Lidar-Sensor HLS-LFCD2



Bezeichnung ist HLS-LFCD2. Dies scheint ein baugleicher Sensor zu sein, wie die Sensoren, die auf dem TurtleBot verbaut werden. Leider kommt dieser Sensor nicht mit dem USB2LDS Adapter. Deshalb muss man ein wenig Recherche betreiben, um diesen Sensor erstmal zum Laufen zu bringen.

Ich habe einige Hilfe von der Webseite eines PIWARS-Bastlers gefunden. Hier ist dieser "günstige" Sensor auch gut beschrieben.
Webseite: BadPidea - Cheap Lidar Seite 1
Webseite: BadPidea - Cheap Lidar Seite 2

Und das Datenblatt des Sensors von dem TurtleBot-Sensor ist eine große Hilfe gewesen, um die Pin-Belegung zu finden.
Datenblatt Lidar von ROBOTIS

Auch eine Anleitung vom TurtleBot ist hilfreich gewesen. Unter dem Punkt "user guide for emdedded board" ist das Pin-Out dargestellt, welche auch zu diesem Sensor passt.
#user-guide-for-embedded-board

Zuerst habe ich den Sensor mit einem Bread-Board verbunden um dann mit Dupont-Kabeln die Verbindung zum FTDI-UART-USB-Adapter (war noch im Bestand) hergestellt. Damit kann dann das ROS-package "hls_lfcd_lds_driver" dann die Daten auslesen.

FTDI-UART-USB-Adapter
Durch einbinden der Launch-File des Treibers ist der Start dann relativ einfach, was ihr im Video sehen könnt.

Hier ein kleiner Test mit dem Raspberry Pi und Touch-Screen. Ihr könnt die Entferungsdaten in Form von "roten" Punkten in der RViz-Darstellung erkennen.

Übersicht vom Testaufbau

 

So, das war es erstmal für heute. Jetzt muss ich noch den Roboter nach einer Demontage der "meisten" Bauteile wieder zusammenbauen. Danach erfolgt dann ein Test des Roboters mit hoffentlich erfolgreicher Karten-Erstellung.

Nach Anfrage einer Belegung der Pins, hier eine "schnelle" Skizze:

Ich hoffe dies hilft weiter! Natürlich sind die Angaben "ohne Gewähr"!



Bis dann