Thomas Endres
Metropolregion München
2087 Follower:innen
500+ Kontakte
Info
Mein Name ist Thomas Endres und ich bin ein IT-Consulant, der für TNG Technology…
Artikel von Thomas Endres
Aktivitäten
-
🎸 If bands can do it, so can we! 🎸 Today, we delivered our TNG Technology Consulting keynote talk, "The AI Elections: How Technology Could Shape…
🎸 If bands can do it, so can we! 🎸 Today, we delivered our TNG Technology Consulting keynote talk, "The AI Elections: How Technology Could Shape…
Beliebt bei Thomas Endres
-
Das war das Rheinwerk Spotlight »KI-ready!«! 😎 Wir danken allen Speaker*innen, Teilnehmenden und allen helfenden Händen im Rheinwerk-Team. Ihr…
Das war das Rheinwerk Spotlight »KI-ready!«! 😎 Wir danken allen Speaker*innen, Teilnehmenden und allen helfenden Händen im Rheinwerk-Team. Ihr…
Beliebt bei Thomas Endres
-
Agil und disruptiv – KI bei TNG Technology Consulting Unsere Station bei TNG Technology Consulting hat eindrucksvoll gezeigt, wie Agilität und…
Agil und disruptiv – KI bei TNG Technology Consulting Unsere Station bei TNG Technology Consulting hat eindrucksvoll gezeigt, wie Agilität und…
Beliebt bei Thomas Endres
Berufserfahrung
Ausbildung
-
Technische Universität München
–
Activities and Societies: TU Film
Schwerpunkte User-Interfaces, verteilte Anwendungen Web-Anwendungen, Software-Engineering und Projektmanagement
Studienarbeit über die Entwicklung eines Fahrerinformationssystems (Kooperationsprojekt mit der BMW AG)
Universitätsinterne Praktika über internetbasierte Geschäftssysteme, XML-Technologie, 3D-Animation, und künstliche Intelligenz -
–
Activities and Societies: Leistungskurse Mathematik und Physik
Bescheinigungen und Zertifikate
Ehrenamt
-
Ehrenamtliche Mitarbeit
Deutsches Museum
–Heute 8 Jahre 3 Monate
Education
Betreuung eines Exponats, mit dem Besucher per Gestensteuerung einen Roboter in der Ausstellung kontrollieren können.
Veröffentlichungen
-
Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz
OOP 2022
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.
Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.
In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.Andere Autor:innenVeröffentlichung anzeigen -
Faking Deep Discussions with NLP - An Ironic AI Solution to Online Debate
Intel Ignite
Using modern AI approaches such as GPT-2, Tacotron and Conformers, we created fully autonomous robot heads that engage in heated social media discussions, completely taking the human out of the loop. The TNG Innovation Hacking Team created a prototype of an end-to-end natural language understanding system, employing techniques such as Speech-to-Text (STT), Conditional Text Generation and Text-To-Speech (TTS).
Social media comments have become the predominant medium for public discussion.…Using modern AI approaches such as GPT-2, Tacotron and Conformers, we created fully autonomous robot heads that engage in heated social media discussions, completely taking the human out of the loop. The TNG Innovation Hacking Team created a prototype of an end-to-end natural language understanding system, employing techniques such as Speech-to-Text (STT), Conditional Text Generation and Text-To-Speech (TTS).
Social media comments have become the predominant medium for public discussion. However, discussions on Facebook, Twitter and Reddit are notorious for their poor debate culture and missing conclusiveness. The obvious solution to this tremendous waste of time is automation of such fruitless discussions using a bot.
In this talk, we will give an introduction to NLP, focussing on the concepts of STT, Text Generation and TTS. Using live demos, we will guide you through the process of scraping social media comments, training a text generation model, synthesising millions of voices and building IoT robot heads.Andere Autor:innen -
Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen
OOP 2022
Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
Kommentarspalten in…Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots.
In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von Tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen. -
Pushing Deepfakes to the Limit - Fake video calls with AI
JavaZone
Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.
Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool…Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.
Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool. Meanwhile different media outlets such as "Leschs Kosmos", Galileo and other television formats have been using TNG Deepfakes.
In this talk we will show the different evolutionary steps of the Deepfake technology, starting with the first Deepfakes and ending with real-time Deepfakes of the entire head in high resolution. Several live demos will shed light on individual components of the software. In particular, we focus on various new technologies to improve Deepfake generation, such as Tensorflow 2 and MediaPipe, and the differences in comparison to our previous implementations. -
Deepfakes am Limit – Fake-Videocalls mit Künstlicher Intelligenz
IT Tage
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.
Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.
In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.Andere Autor:innenVeröffentlichung anzeigen -
Brain Computer Interfaces Demystified - Can thoughts take over control?
J-Fall
What if a Brain Computer Interface (BCI) could translate your thoughts into commands, to control software or hardware? The TNG Innovation Hacking Team worked with various brain computer interfaces and is trying to develop such software. An interesting device in this environment is the OpenBCI, which provides programming interfaces for e.g. C + +, Python, Java and R.
The lecture gives an overview of different BCI manufacturers and types, as well as their different approaches to record and…What if a Brain Computer Interface (BCI) could translate your thoughts into commands, to control software or hardware? The TNG Innovation Hacking Team worked with various brain computer interfaces and is trying to develop such software. An interesting device in this environment is the OpenBCI, which provides programming interfaces for e.g. C + +, Python, Java and R.
The lecture gives an overview of different BCI manufacturers and types, as well as their different approaches to record and interpret brain waves. The team took up the challenge to use techniques from artificial intelligence, which support the evaluation of brain currents from electroencephalography (EEG). The speakers present prototypical showcases including such devices as OpenBCI, EMotive Epoc-X and NextMind, sharing their experience with the audience.
In this exciting and entertaining lecture you will get an introduction to the world of mind control. The speakers will focus in particular on the deep learning techniques used in this application. The introduction of e.g. evolutionary strategies in the form of genetic algorithms for the optimization of artificial, neural networks round off the presentation.Andere Autor:innenVeröffentlichung anzeigen -
Pushing Deepfakes to the Limit - Fake video calls with AI
Devoxx UK
Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.
Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool…Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.
Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool. Meanwhile different media outlets such as "Leschs Kosmos", Galileo and other television formats have been using TNG Deepfakes.
In this talk we will show the different evolutionary steps of the Deepfake technology, starting with the first Deepfakes and ending with real-time Deepfakes of the entire head in high resolution. Several live demos will shed light on individual components of the software. In particular, we focus on various new technologies to improve Deepfake generation, such as Tensorflow 2 and MediaPipe, and the differences in comparison to our previous implementations.Andere Autor:innen -
Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?
Big Techday 21
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und…
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen, sowie deren unterschiedlichen Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases u.a. mit OpenBCI, EMotiv Epoc-X und NextMind implementiert und teilen ihre Erfahrung mit dem Publikum. In diesem spannenden und unterhaltsamen Vortrag erhalten Sie eine Einführung in die Welt der Gedankensteuerung. Dabei gehen die Sprecher insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Die Einführung von z.B. Evolutions-Strategien in Form genetischer Algorithmen zur Optimierung künstlicher, neuronaler Netze runden den Vortrag ab.
Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz
Big Techday 21
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt. Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes. In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.
Andere Autor:innenVeröffentlichung anzeigen -
Die Shitposting-KI - Eine ironische Lösung für fruchtlose Onlinediskussionen
Big Techday 21
Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototypen eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen. Kommentarspalten in…
Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototypen eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen. Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots. In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen.
Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks Are Changing Our World
CodeEurope Gdansk
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.
Expect an entertaining and vivid introduction into the world of real-time Deepfakes. Several live demonstrations will complete this event.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes in Echtzeit – Wie neuronale Netze unsere Welt verändern
DWX
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes in Realtime - How Neural Networks Are Changing Our World
We Are Developers
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.
IIn this talk, Thomas Endres, Martin Förtsch and Jonas Mayer will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern
TDWI
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze…
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innenVeröffentlichung anzeigen -
Realtime Deepfakes - How Neural Networks Are Changing Our World
DevDays Europ
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.
In this talk, Thomas Endres and Martin Förtsch will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Minds Mastering Machines
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG-Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG-Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik wird es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres, Martin Förtsch und Jonas Mayer eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deep Fakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innenVeröffentlichung anzeigen -
Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?
SEACON
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt.
Der Vortrag gibt einen Überblick über verschiedene…Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt.
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen, sowie deren unterschiedlichen Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases implementiert und teilen Ihre Erfahrung mit dem Publikum.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Javaland 2021
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes in Echtzeit – Wie neuronale Netze unsere Welt verändern
CodeDays 2021
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen. Martin Förtsch und Jonas Mayer führen in die KI-Techniken ein, die zur Realisierung von Echtzeit-Deepfakes zum Einsatz kamen, wie z.B. Deep- und Transfer Learning oder GANs. Mehrere…
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen. Martin Förtsch und Jonas Mayer führen in die KI-Techniken ein, die zur Realisierung von Echtzeit-Deepfakes zum Einsatz kamen, wie z.B. Deep- und Transfer Learning oder GANs. Mehrere Live-Demonstrationen runden das Erlebnis ab.
Andere Autor:innenVeröffentlichung anzeigen -
Keynote: Betting the Future of AI with Live Innovation Hacking Tour at TNG Labs
OOP 2021
For this keynote, Intel Software and TNG Technology Consulting go on a journey to some amazing innovations in Artificial Intelligence. Starting with the concept of Intel® oneAPI and introducing software development tools enabling a multi-architecture future, the keynote will travel in real-time to the AI Labs of TNG in Munich where Thomas Endres, Martin Förtsch and Jonas Mayer will take the audience on an exciting Live Innovation Hacking Tour showcasing the latest capabilities of AI at the edge.
Andere Autor:innenVeröffentlichung anzeigen -
Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?
OOP 2021
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich auf Basis eines OpenBCI mit dem Thema auseinandergesetzt und eine solche Software entwickelt.
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen. Das Team hat Techniken aus dem Bereich der künstlichen Intelligenz und genetischen Algorithmen eingesetzt, um die Auswertung von Gehirnströmen…Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich auf Basis eines OpenBCI mit dem Thema auseinandergesetzt und eine solche Software entwickelt.
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen. Das Team hat Techniken aus dem Bereich der künstlichen Intelligenz und genetischen Algorithmen eingesetzt, um die Auswertung von Gehirnströmen aus der Elektroenzephalografie (EEG) zu unterstützen.
Zielpublikum: Entwickler, Projektleiter, Entscheider, Management
Voraussetzungen: IT-Affinität, Grundlagen Künstliche Intelligenz
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen BCI-Geräten auseinandergesetzt und eine solche Software entwickelt. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereitstellt.
Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen, sowie deren unterschiedliche Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der Künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases unter Anwendung eines OpenBCI implementiert.
In diesem spannenden und unterhaltsamen Vortrag erhalten Sie eine Einführung in die Welt der Gedankensteuerung. Dabei gehen die Sprecher insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Die Einführung von z.B. Evolutions-Strategien in Form genetischer Algorithmen zur Optimierung künstlicher, neuronaler Netze runden den Vortrag ab.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks are Changing our World
GIDS AI&ML
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.
The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.
In this talk, Thomas Endres and Martin Förtsch will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.Andere Autor:innenVeröffentlichung anzeigen -
Style Transfer AI - How Neural Networks Generate Art
GIDS AI&ML
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for…
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso. Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.
Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks are Changing our World
CodeMotion Online Tech Conference - Spanish Edition
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.
Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks are Changing our World
CodeMotion Online Tech Conference - Spanish Edition
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.
Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Deepfakes für Lehrkräfte
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innen -
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks are Changing our World
Eröffnung Amerikahaus München
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…
Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.
Andere Autor:innen -
Deepfakes - Erkennst du die Fälschung?
WDR Aktuelle Stunde
-
Automatisierte Migration von Legacy Code
Big Techday 13
Wir stellen einen neuen Ansatz und dessen Umsetzung zur Migration von Legacy- Code vor, die auf testgetriebene Entwicklung sowie kundenspezifische Erweiterungen setzen. Der Code wird hierbei automatisiert von einer veralteten Ausgangssprache wie PL/I hin zu einer modernen Sprache wie Java übersetzt. Dadurch verhindern wir repetitive und fehleranfällige Arbeit bei der Übersetzung. Gleichzeitig vermeiden wir durch den Einsatz kundenspezifischer Heuristiken eine zu starke Generalisierung des…
Wir stellen einen neuen Ansatz und dessen Umsetzung zur Migration von Legacy- Code vor, die auf testgetriebene Entwicklung sowie kundenspezifische Erweiterungen setzen. Der Code wird hierbei automatisiert von einer veralteten Ausgangssprache wie PL/I hin zu einer modernen Sprache wie Java übersetzt. Dadurch verhindern wir repetitive und fehleranfällige Arbeit bei der Übersetzung. Gleichzeitig vermeiden wir durch den Einsatz kundenspezifischer Heuristiken eine zu starke Generalisierung des erzeugten Codes und dieser bleibt einfach lesbar. Im Vortrag gehen wir zunächst darauf ein, wie wir allgemeine Features der Ausgangssprache durch eine kontextfreie Grammatik abbilden und daraufhin automatisiert übersetzen. Ebenso stellt die Integration kundenspezifischer Features und die iterative Erweiterung des Übersetzers (Transpilers) einen wichtigen Grundpfeiler unseres Ansatzes dar. Diesen zeigen wir am Beispiel ausgewählter Präprozessor-Direktiven. Ebenso gehen wir auf das speziell für diesen Zweck geschaffene Modultest-Framework für PL/I und dessen Einsatz in der testgetriebenen Übersetzung ein. Zuletzt beleuchten wir die zuverlässige Beibehaltung der Semantik des Original-Codes und ebnen damit den Weg für nachfolgendes Refactoring in der Zielsprache.
Andere Autor:innenVeröffentlichung anzeigen -
Die Trainer-KI - Mit neuronalen Netzen zu den Olympischen Spielen
Big Techday 13
Künstliche Intelligenz kann neuerdings im olympischen Sport eingesetzt werden, um in Echtzeit Technikauswertungen für Sportler zu erstellen und somit stundenlange Nachbearbeitung der Videos durch den Trainer zu ersetzen. In Zusammenarbeit mit dem Olympiastützpunkt Heidelberg hat das TNG Innovation Hacking Team eine Software erstellt, die die wissenschaftliche Technik-Analyse im Kanu-Spitzensport automatisiert. Einst mussten Videoaufnahmen langwierig gesichtet und Einzelbilder von Hand auf…
Künstliche Intelligenz kann neuerdings im olympischen Sport eingesetzt werden, um in Echtzeit Technikauswertungen für Sportler zu erstellen und somit stundenlange Nachbearbeitung der Videos durch den Trainer zu ersetzen. In Zusammenarbeit mit dem Olympiastützpunkt Heidelberg hat das TNG Innovation Hacking Team eine Software erstellt, die die wissenschaftliche Technik-Analyse im Kanu-Spitzensport automatisiert. Einst mussten Videoaufnahmen langwierig gesichtet und Einzelbilder von Hand auf bestimmte Winkel analysiert werden. Dank unserer Applikation geschieht diese Auswertung nun vollkommen automatisiert mittels mehrerer aktueller Techniken aus dem Bereich der neuronalen Netze.
In diesem Vortrag lernen Sie, wie die Software aus dem rohen Videomaterial die Winkel ermittelt, mit dem ein Kanut sein Paddel ins Wasser einsticht. Die Vortragenden zeigen Ihnen hierfür, wie man mittels Segmentierung die wackeligen Kamerabilder gegen die Wasserlinie stabilisiert, wie OpenPose die die Hände des Sportlers findet und wie ein Klassifikationsmodell mittels Transfer Learning zwischen einem Paddel überhalb und unterhalb der Wasserlinie unterscheidet. Dabei gehen die TNG-Consultants auch auf Details der verwendeten Technologien und neuronalen Netze ein.Andere Autor:innenVeröffentlichung anzeigen -
Reinforcement Learning am Beispiel einer Computerspiel-KI
Big Techday 13
Das Training von KI-Systemen lässt sich durch den Einsatz simulierter Umgebungen beschleunigen, indem diese realitätsnahe Daten für komplexe Problemstellungen liefern. Anhand des von TNG entwickelten Virtual Reality-Spieles "Blobby VR" zeigen wir die Verknüpfung von Reinforcement Learning mit einer simulierten Umgebung für das Training einer Computerspiel-KI. Reinforcement Learning steht für eine Reihe von Methoden des maschinellen Lernens. Ein Agent maximiert erhaltene Belohnungen, indem er…
Das Training von KI-Systemen lässt sich durch den Einsatz simulierter Umgebungen beschleunigen, indem diese realitätsnahe Daten für komplexe Problemstellungen liefern. Anhand des von TNG entwickelten Virtual Reality-Spieles "Blobby VR" zeigen wir die Verknüpfung von Reinforcement Learning mit einer simulierten Umgebung für das Training einer Computerspiel-KI. Reinforcement Learning steht für eine Reihe von Methoden des maschinellen Lernens. Ein Agent maximiert erhaltene Belohnungen, indem er selbständig eine Strategie erlernt. Für dieses Beispiel nutzen wir eine Simulation, um den Lernprozess eines tiefen, neuronalen Netzes zu beschleunigen. Im Vortrag gehen wir zunächst auf die Grundlagen des Reinforcement Learnings und der Simulation ein. Anschließend zeigen wir auf, wie eine Verknüpfung dieser beiden Techniken innerhalb der Spieleengine Unity möglich ist. Die simulierte Umgebung bildet dabei die Realität in allen relevanten Aspekten nach und bietet die Möglichkeit, menschlichen Spieler durch KI-Agenten zu ersetzen. Mit Reinforcement Learning kann das Verhalten eines realen Spielers erlernt werden. Abschließend zeigen wir, wie sich unser Beispiel auf andere Anwendungsfälle, wie beispielsweise in der Produktion und Logistik, übertragen lässt.
Andere Autor:innenVeröffentlichung anzeigen -
Deep Fakes 2.0 – Wie neuronale Netze unsere Welt verändern
OOP 2020
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototyp zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz.
Durch die Anwendung neuronaler Netze…Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototyp zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz.
Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze sowie verschiedene Gesichtserkennungs-Algorithmen.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deep Fakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.Andere Autor:innenVeröffentlichung anzeigen -
Deepfakes 2.0 - How Neural Networks are Changing our World
JFall
Imagine that you are standing in front of a mirror, but no longer see your own face, but through the eyes of Barack Obama or Angela Merkel. In real time, your own facial expressions are transferred to someone else’s face.
The TNG Hardware Hacking Team has managed to create such a prototype and transfer a person’s face to any other face in real time. The basis for this is the so-called deep-fake approach. The use of neural networks detects faces of video input, translates and integrates…Imagine that you are standing in front of a mirror, but no longer see your own face, but through the eyes of Barack Obama or Angela Merkel. In real time, your own facial expressions are transferred to someone else’s face.
The TNG Hardware Hacking Team has managed to create such a prototype and transfer a person’s face to any other face in real time. The basis for this is the so-called deep-fake approach. The use of neural networks detects faces of video input, translates and integrates them back to the video output. Through this technique, it is possible to project deceptively real imitations to other people.
For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms. In this talk, Thomas Endres and Martin Förtsch give one entertaining and very vivid introduction to the world of deep fakes in real time. In doing so, they particularly focus on deep learning techniques used in this application.Andere Autor:innenVeröffentlichung anzeigen -
Deep Fake Trouble - Was tun gegen gefälschte Inhalte?
Medientage München
Deepfakes sind im Netz weit verbreitet. Die Anzahl hat sich im Zeitraum von etwas mehr als einem halben Jahr fast verdoppelt – zu diesem Schluss kommt die jüngste Untersuchung von Deeptrace. Das niederländische Unternehmen stieß bei seiner Analyse auf fast 14.700 Deepfake Videos. Im Dezember 2018 waren es noch unter 8.000. Noch ist die Erstellung von perfekten Deepfakes sicherlich nicht mal so nebenbei und für jedermann umsetzbar. Doch die Technologie soll sich schneller weiterentwickeln als…
Deepfakes sind im Netz weit verbreitet. Die Anzahl hat sich im Zeitraum von etwas mehr als einem halben Jahr fast verdoppelt – zu diesem Schluss kommt die jüngste Untersuchung von Deeptrace. Das niederländische Unternehmen stieß bei seiner Analyse auf fast 14.700 Deepfake Videos. Im Dezember 2018 waren es noch unter 8.000. Noch ist die Erstellung von perfekten Deepfakes sicherlich nicht mal so nebenbei und für jedermann umsetzbar. Doch die Technologie soll sich schneller weiterentwickeln als bisher von Experten angenommen: Deepfake-Pionier Hao Li stellte Ende September auf der EmTech-Konferenz in Massachusetts die Prognose, dass innerhalb weniger Jahre perfekte und praktisch nicht nachweisbare Deepfakes möglich sein könnten. Die Möglichkeit, Mimik und Stimmen von den Mächtigen der Welt zu synthetisieren und sie beliebige Sätze sagen zu lassen, birgt enorme Gefahren für Politik, Wirtschaft und Gesellschaft. Deepfakes haben das Potenzial, die Effekte von Fake-News-Kampagnen um ein Vielfaches zu übersteigen. Vor allem Medien stellt dies vor neue Herausforderungen – Deepfakes zu erkennen, fordert den redaktionellen Alltag heraus, erfordert völlig neue Skills und Techniken. Das Panel soll aufzeigen, wo das Phänomen Deepfake aktuell steht, welche Technologien und Mechanismen dahinterstehen und wie man gefälschte Inhalte erkennt und bekämpfen kann.
Andere Autor:innenVeröffentlichung anzeigen -
Style Transfer - How neural networks generate art
JavaZone
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer".
It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer".
It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.
Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application. -
Style Transfer – Wie neuronale Netze Kunst erzeugen
heise Herbstcampus
Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?
Dem Hardware-Hacking-Team von TNG ist es gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil berühmter Maler wie Claude Monet oder Pablo…Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?
Dem Hardware-Hacking-Team von TNG ist es gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil berühmter Maler wie Claude Monet oder Pablo Picasso.
Grundlage dieses Projekts ist der sogenannte Style Transfer, eine der derzeit spannendsten Entwicklungen im Bereich der künstlichen Intelligenz. Darunter versteht man die Möglichkeit, eine Art Patchwork oder Pastiche aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.
In dieser Keynote geben Thomas Endres und Martin Förtsch eine unterhaltsame und anschauliche Einführung in die Welt des Realtime Style Transfer. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.Andere Autor:innenVeröffentlichung anzeigen -
Stereoscopic Real-time Style Transfer AI – Art is not what you see?
TDWI München
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? One interesting development in the field of Deep Learning is the so called 'Style Transfer'. It describes a possibility to create a patchwork from two images. While one of these images defines the artistic style of the result picture, the other one is used for extracting the image content.
The Hardware Hacking Team from TNG Technology Consulting managed to built an…What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? One interesting development in the field of Deep Learning is the so called 'Style Transfer'. It describes a possibility to create a patchwork from two images. While one of these images defines the artistic style of the result picture, the other one is used for extracting the image content.
The Hardware Hacking Team from TNG Technology Consulting managed to built an application to realize such goggles. Within this talk you will be introduced into the field of Real-time Style Transfer. It will also cover in detail the Deep Learning techniques used for this application. -
Style Transfer AI – Wie neuronale Netze Kunst erzeugen
DWX Developer Week
Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt…
Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt. Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Mittels dieser erscheint die Umwelt dann im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfers. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei dieser Anwendung zum Einsatz kommen.
-
Betrugserkennung im SWIFT-Interbankenverkehr
Big TechDay
Gerade im Bereich des internationalen Zahlungsverkehrs und bei einer hohen Anzahl an Überweisungen ist Betrug keine Seltenheit. TNG hat in Zusammenarbeit mit einem FinTech-Kunden Bellin eine auf Machine Learning beruhende Methode entwickelt, mit der die Erkennung von Betrugsfällen erleichtert werden konnte. Dadurch, dass Zahlungen auf diese Weise gemäß ihrer Betrugswahrscheinlichkeit vorsortiert werden können, müssen Sachbearbeiter nicht mehr alle Zahlungen untersuchen, sondern kann sich…
Gerade im Bereich des internationalen Zahlungsverkehrs und bei einer hohen Anzahl an Überweisungen ist Betrug keine Seltenheit. TNG hat in Zusammenarbeit mit einem FinTech-Kunden Bellin eine auf Machine Learning beruhende Methode entwickelt, mit der die Erkennung von Betrugsfällen erleichtert werden konnte. Dadurch, dass Zahlungen auf diese Weise gemäß ihrer Betrugswahrscheinlichkeit vorsortiert werden können, müssen Sachbearbeiter nicht mehr alle Zahlungen untersuchen, sondern kann sich stattdessen auf Hochrisikoüberweisungen konzentrieren. In diesem Vortrag stellen wir vor, wie diese Betrugserkennung technisch realisiert wurde.
Andere Autor:innenVeröffentlichung anzeigen -
Blobby VR - Wie programmiere ich ein Multiplayer-Volleyball-Spiel in VR?
Big TechDay
Wie können wir ein Mehrspieler-Volleyballspiel in VR entwickeln? Ist das überhaupt möglich? Welche Stolperfallen lauern auf dem Weg dorthin? Und kann das Spaß machen? Diese Fragen haben wir uns vor einem Jahr gestellt. Die Antworten können wir Ihnen heute geben. In diesem Vortrag möchten wir von den Herausforderungen berichten, die wir auf dem Weg zu einem fertigen Spiel bewältigen mussten. Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal-…
Wie können wir ein Mehrspieler-Volleyballspiel in VR entwickeln? Ist das überhaupt möglich? Welche Stolperfallen lauern auf dem Weg dorthin? Und kann das Spaß machen? Diese Fragen haben wir uns vor einem Jahr gestellt. Die Antworten können wir Ihnen heute geben. In diesem Vortrag möchten wir von den Herausforderungen berichten, die wir auf dem Weg zu einem fertigen Spiel bewältigen mussten. Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Dennoch bleiben die spezifischen Herausforderungen bei der individuellen Implementierung bestehen. Insbesondere werden wir auf die Schwierigkeiten im Umgang mit der Netzwerklatenz und der Wechselwirkung mit der Physikengine eingehen. Außerdem zeigen wir, wie wir iterativ an der Spiel- und Ballmechanik gearbeitet haben, um ein nicht nur realistisch wirkendes, sonder auch ein vor allem unterhaltsames Spielverhalten zu erzielen.
-
Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern
Big TechDay
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz. Durch die Anwendung neuronaler Netze…
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitiationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze sowie verschiedene Gesichtserkennungs-Algorithmen. In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.
Andere Autor:innenVeröffentlichung anzeigen -
Style Transfer - Wie neuronale Netze Kunst erzeugen
https://www.m3-konferenz.de/lecture.php?id=8569&source=0
Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?
Dem TNG Hardware-Hacking-Team ist es kürzlich gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo…Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?
Dem TNG Hardware-Hacking-Team ist es kürzlich gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso.
Grundlage dieses Projekts ist der sogenannte Style Transfer, eine der derzeit spannendsten Entwicklungen im Bereich der künstlichen Intelligenz. Darunter versteht man die Möglichkeit, eine Art Patchwork oder Pastiche aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt des Realtime Style Transfer. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.Andere Autor:innenVeröffentlichung anzeigen -
Stereoscopic Style Transfer AI - How neural networks generate art
TEQnation
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called “Style Transfer”.
It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called “Style Transfer”.
It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.
Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.Andere Autor:innenVeröffentlichung anzeigen -
Stereoscopic Style Transfer – Art is not what you see?
CodeMotion Amsterdam
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. A team from TNG…
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. A team from TNG Technology Consulting managed to build an AI showcase using OpenCV and Tensorflow to realize such goggles.
Andere Autor:innenVeröffentlichung anzeigen -
How Machines learn to Code - Machine Learning on Source Code
AccSoCon 2019
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Sie lernen die verwendeten Vektorrepräsentationen, aber auch verschiedene Modelle und Methoden zur Ermittlung von Daten kennen.
Andere Autor:innenVeröffentlichung anzeigen -
Machine Learning on Source Code
Informatik aktuell
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können.
Beispielsweise gibt es für die Verarbeitung von Bilddaten mittlerweile schon Standardverfahren, mit denen Lernalgorithmen deren Zweidimensionalität beachten. Für die Kodierung der semantischen Struktur von Source Code gibt es allerdings noch keine verbreiteten Techniken. Deshalb mussten wir neue Wege zur mathematischen Darstellung des Codes von Projekten finden, die wir Ihnen im ersten Teil des Vortrags vorstellen. Daraufhin lernen Sie Ansätze für die automatische wie auch manuelle Trainingsdatengenerierung kennen. Ein weiterer Teil der Präsentation umfasst einen Überblick über unterschiedliche Modelle und Frameworks für maschinelles Lernen, die in diesem Kontext sinnvoll erscheinen. Der letzte Abschnitt beschäftigt sich schließlich mit den Möglichkeiten zur Nutzung solcher Modelle zur Analyse von Code.Andere Autor:innenVeröffentlichung anzeigen -
Deep Learning in Practice – Stereoscopic Style Transfer AI
AI DevCon 2019 EMEA
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for…
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso. Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.
Andere Autor:innenVeröffentlichung anzeigen -
Stereoscopic Style Transfer – Mit Deep Learning die Welt als Echtzeit-Gemälde erleben
OOP 2019
Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde?
Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu…Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde?
Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.
Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen, unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Mittels dieser erscheint die Umwelt dann im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfer. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei dieser Anwendung zum Einsatz kommen.Andere Autor:innenVeröffentlichung anzeigen -
How Machines Learn to Code - Testvorhersage auf Basis von Source Code
Software Quality Days 2019
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Sie lernen die verwendeten Vektorrepräsentationen, aber auch verschiedene Modelle und Methoden zur Ermittlung von Daten kennen.
-
Stereoscopic Style Transfer AI - Art is not what you see?
Devoxx Belgium
What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh?
One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh?
One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.
Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.Andere Autor:innenVeröffentlichung anzeigen -
How machines learn to code: Machine learning on source code
Oracle CodeOne
Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to…
Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to mathematically represent the code of projects. This technology offers a variety of possible applications, for example, in the area of static code analysis or in the automatic selection of relevant test cases.
Thomas Endres and Samuel Hopstock share methods for transferring classic machine learning approaches to this new field of expertise. Along the way, Thomas and Samuel detail approaches for both automatic and manual training data generation and offer an overview of suitable models and machine learning frameworks for this challenge. They conclude by exploring the possibilities of using such models for the analysis of code.Andere Autor:innenVeröffentlichung anzeigen -
How machines learn to code: Machine learning on source code
O'Reilly AI Conference
Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to…
Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to mathematically represent the code of projects. This technology offers a variety of possible applications, for example, in the area of static code analysis or in the automatic selection of relevant test cases.
Thomas Endres and Samuel Hopstock share methods for transferring classic machine learning approaches to this new field of expertise. Along the way, Thomas and Samuel detail approaches for both automatic and manual training data generation and offer an overview of suitable models and machine learning frameworks for this challenge. They conclude by exploring the possibilities of using such models for the analysis of code.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographische Telepräsenz mit der Hololens
Java Forum Stuttgart
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität…Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographische Telepräsenz mit der Hololens
DWX Developer Week
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität…Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.Andere Autor:innenVeröffentlichung anzeigen -
How Machines Learn to Code - Machine Learning auf Basis von Source Code
Big TechDay 11
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…
Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Beispielsweise gibt es für die Verarbeitung von Bilddaten mittlerweile schon Standardverfahren, mit denen Lernalgorithmen deren Zweidimensionalität beachten. Für die Kodierung der semantischen Struktur von Source Code gibt es allerdings noch keine verbreiteten Techniken. Deshalb mussten wir neue Wege zur mathematischen Darstellung des Codes von Projekten finden, die wir Ihnen im ersten Teil des Vortrags vorstellen. Daraufhin lernen Sie Ansätze für die automatische wie auch manuelle Trainingsdatengenerierung kennen. Ein weiterer Teil der Präsentation umfasst einen Überblick über unterschiedliche Modelle und Frameworks für maschinelles Lernen, die in diesem Kontext sinnvoll erscheinen. Der letzte Abschnitt beschäftigt sich schließlich mit den Möglichkeiten zur Nutzung solcher Modelle zur Analyse von Code.
Andere Autor:innenVeröffentlichung anzeigen -
ParrotAttacks VR - Spieleprogrammierung für die virtuelle Realität mit Unity 3D
Big TechDay 11
Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Mit den Engines selbt erhält der Entwickler auch Zugriff auf mächtige und umfangreichen Code-Bibliotheken, einfach zu verwendende 3D-Modelle und weitere Assets. Dies ermöglicht es ihm, sich schnell auf das eigentliche Spielkonzept zu konzentrieren, ohne viel Zeit in den Details der…
Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Mit den Engines selbt erhält der Entwickler auch Zugriff auf mächtige und umfangreichen Code-Bibliotheken, einfach zu verwendende 3D-Modelle und weitere Assets. Dies ermöglicht es ihm, sich schnell auf das eigentliche Spielkonzept zu konzentrieren, ohne viel Zeit in den Details der 3D-Programmierung zu verlieren. In diesem Vortrag soll anhand eines einfachen Beispiels im Live-Coding ein Virtual-Reality-Spiel in Unity 3D erstellt werden. Die Vortragenden gehen dabei auf viele elementare Aspekte der 3D-Softwareentwicklung ein. Dazu zählen Kameras und Skyboxes, die Beleuchtung und die 3D-Objekte selbst wie auch deren Komponenten. Daraufhin wird der Programmfluss und die Programmierung der Spielelogik anhand eines Beispiels beschrieben. Unterfüttert wird die Demonstration mit Tipps zu Themen wie Usability und Wartbarkeit.
-
Stereoscopic Style Transfer - Kunst ist das, was man sieht?
Big TechDay 11
Was wäre, wenn eine Augmented Reality Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu…
Was wäre, wenn eine Augmented Reality Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt. Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Unter Verwendung dieser Brille erscheint die Umwelt dann z.B. im Stil von berühmten Malern wie Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfers. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei der Methode des Style Transfers zum Einsatz kommen.
Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographic telepresence using the Hololens
CodeMotion Amsterdam 2018
What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft…What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographic telepresence using the Hololens
TEQnation
What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft…What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographische Telepräsenz mit der Hololens
Javaland
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität…Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up – Holographische Telepräsenz mit der HoloLens
OOP 2018
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität…Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?
Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographic telepresence using the Hololens
Intel Buzz Workshop
What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the "Star Wars" movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft…What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the "Star Wars" movies.
The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.Andere Autor:innenVeröffentlichung anzeigen -
Wir sind die Roboter - Wie man mit Projekt Avatar in die Rolle eines Roboters schlüpfen kann
NerdNite München
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
CodeEurope
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
CodeMotion
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
IMWorld
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
JavaZone
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepräsenzrobotik mit Nao und Kinect
DWX Developer Week
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Beam me up - Holographische Kommunikation mit der Hololens
Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum? Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft Hololens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projezieren.
Die Idee der erweiterten Realität (Augmented…Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum? Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft Hololens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projezieren.
Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der Hololens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert.
Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der Hololens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen demonstriert. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die Hololens unter der Verwendung von Unity 3D erarbeitet.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
IoT TechDay 2017
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused. -
Avatar - Telepräsenzrobotik mit Nao und Kinect
Javaland-Konferenz
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepräsenzrobotik mit Nao und Kinect
Mobile Tech Conference
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepräsenzrobotik mit Nao und Kinect
OOP 2017
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
VR with the Best
Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java.…Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepresence robotics using Nao and Kinect
ChartaCloud Nao Congress
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
Sehen wie ein Terminator - Augmented Reality mit der Oculus Rift
MobileTechCon / IoT Conference
Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige…
Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige selbstentwickelte Demos zeigen und einen Einblick in ihre Applikation vom Abgreifen des Videosignal bis zur Darstellung in einer VR-Brille geben.
Andere Autor:innenVeröffentlichung anzeigen -
Avatar - Telepräsenzrobotik mit Nao und Kinect
TNG Big TechDay 9
Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses…Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.Andere Autor:innenVeröffentlichung anzeigen -
See like a Terminator - Augmented Reality with Oculus Rift
IoT TechDay
In diesem TechLounge-Interview für Mobile Geeks gehen wir auf die Geschichte der Gestensteuerung ein und erläutern diese beispielhaft anhand unserer Prototypen.
Andere Autor:innenVeröffentlichung anzeigen -
Sehen wie ein Terminator - Augmented Reality mit Oculus Rift
heise Developer World auf der CeBit
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
Sehen wie Terminator - Augmented Reality mit der Oculus Rift
Javaland
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
Terminator meets Minority Report - Augmented Reality and Gestures Recognition with 3D Cameras
Virtual Java User Group and Java Nighthacking
Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige…
Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige selbstentwickelte Demos zeigen und einen Einblick in ihre Applikation vom Abgreifen des Videosignal bis zur Darstellung in einer VR-Brille geben.
Andere Autor:innenVeröffentlichung anzeigen -
Keynote: Sehen wie ein Terminator – Augmented Reality mit der Oculus Rift
OOP-Konferenz
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
See like a Terminator - Augmented Reality with Oculus Rift
Codemotion Berlin 2015
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
See like a Terminator - Augmented Reality with Oculus Rift
Oracle JavaOne
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras.
DWX Developer Week 2015 (Neue Mediengesellschaft, nmg.de)
Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?
Tom Cruise im Jahr 2054. Vor einem mannshohen Display stehend bewegt er seine Hände und ordnet die dargestellten Informationen…Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?
Tom Cruise im Jahr 2054. Vor einem mannshohen Display stehend bewegt er seine Hände und ordnet die dargestellten Informationen freihändig und nach seinen Vorstellungen auf dem Bildschirm an. Das war eine Schlüsselszene aus dem im Jahr 2002 erschienenen Kinofilm “Minority Report”. Um dem Film etwas mehr wissenschaftlichen Charakter zu verleihen, bildete der Regisseur Steven Spielberg eine Expertenkommission und lud 15 Spezialisten auf diesem Gebiet in ein Hotel in Santa Monica ein. Dort wurden die Grundlagen für eine Computersteuerung entworfen. Diese noch zu entwickelnde Steuerung sollte nicht nur alle üblichen Interaktionen mit der Software vor einem Display erfüllen, sondern dabei auch noch futuristisch aussehen.Andere Autor:innenVeröffentlichung anzeigen -
Sehen wie ein Terminator - Augmented Reality mit der Oculus Rift
Big Techday 8 (TNG Technology Consulting GmbH, tngtech.com)
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…
Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.
Andere Autor:innenVeröffentlichung anzeigen -
Gesture control and the new wave of 3D camera devices. Fiction or reality?
IoT Developer Days
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.
-
Gestensteuerung und die nächste Welle der 3D-Kameras
Java Aktuell
Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?
Andere Autor:innenVeröffentlichung anzeigen -
Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras
OOP-Konferenz
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.
Andere Autor:innenVeröffentlichung anzeigen -
Fiction or reality? Gesture control and the new wave of 3-D camera devices
Oracle JavaOne
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vor- und Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel RealSense Gesture Camera und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface-Metaphern zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…
Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vor- und Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel RealSense Gesture Camera und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface-Metaphern zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.
Andere Autor:innenVeröffentlichung anzeigen -
Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras.
Java Forum Stuttgart
Native Interfaces haben in den letzten Jahren mit ihrem Einzug in die Welt der Spielkonsolen Ihren Siegeszug begonnen. Devices wie die WiiMote, die Kinect oder die Playstation-Kamera und Spiele wie "Just Dance" zeigen eindrucksvoll die Möglichkeit dieser neuartigen Steuerungsmethode.
Andere Autor:innenVeröffentlichung anzeigen -
Die TNG-PanoCam - eine 360°-Kamera mit Odroid und Raspberry Pi
Invited Talk, TNG BigTechDay 7
Die PanoCam ist eine prototypische 360° * 180° Panorama-Kamera, die auf Knopfdruck (ausgelöst durch eine Android-App) ein komplettes Panoramabild erstellt.
Sie entstand während eines sog. Winter-Retreat der Firma TNG Technology Consulting GmbH, an dem sich eine Gruppe von acht Kollegen traf, um eine Panorama-Kamera mit Hardware "von der Stange" zu bauen.Andere Autor:innenVeröffentlichung anzeigen -
Perceptual Computing und die nächste Welle der Native Interface Devices
Keynote Talk bei der Microsoft Student Technology Konferenz
Keynote Talk bei der der Microsoft Student Technology Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.
Andere Autor:innenVeröffentlichung anzeigen -
Perceptual Computing und die nächste Welle der Native Interface Devices
Javaland
Invited Talk bei der Javaland Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.
Andere Autor:innenVeröffentlichung anzeigen -
Perceptual Computing und die nächste Welle der Native Interface Devices
Javaland-Konferenz
Invited Talk bei der Javaland Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.
Andere Autor:innenVeröffentlichung anzeigen -
Alles in einer Klasse - Der ConfigBuilder
Java Magazin
Im Artikel wird der TNG ConfigBuilder vorgestellt. Mit diesem lässt sich auf einfache Art aus verschiedenen Parametern wie Kommandozeilen-Argumenten, Datei-Einträgen, etc. eine Applikationskonfiguration aufbauen.
-
Perceptual Computing controlled Parrot AR.Drone
Intel Developer Forum
Vorstellung eines Demonstrations-Showcase zum berührungslosen Steuern einer Drohne durch Gesten in San Francisco, USA (Moscone Center)
Andere Autor:innenVeröffentlichung anzeigen
Kurse
-
IT architecture course
-
-
Kanban Training
-
-
Risk Management
-
-
Scrum Training
-
-
Visual Facilitation
-
Projekte
-
Realtime Deepfakes
–Heute
Entwicklung von Echtzeit-Deepfakes, um die Öffentlichkeit über die Gefahren der Technologie aufzuklären.
Andere Mitarbeiter:innenProjekt anzeigen -
Blobby VR
–Heute
You are a blob playing volleyball in VR. Two players are playing against each other, each wearing a wireless VR headset. They see each other as blobs on the opposite sides of a volleyball field in this multiplayer VR game. When they move around or jump in the real world, their blob does the same. The goal of the game is to win in a volleyball match at this VR game.
Andere Mitarbeiter:innenProjekt anzeigen -
Style Transfer AI
–Heute
Darstellung der echten Welt als Kunstwerk in VR, als Polaroid und auch im Browser.
Andere Mitarbeiter:innenProjekt anzeigen -
Project Avatar
Entwicklung eines gestengesteuerten Nao-Roboters auf Basis einer Oculus Rift und einer Microsoft Kinect-3D-Kamera
Andere Mitarbeiter:innenProjekt anzeigen -
Project AugmentedRift
-
Entwicklung einer 3D-Brille, mit deren Hilfe man die Welt durch die Augen eines Terminators sehen kann
Andere Mitarbeiter:innenProjekt anzeigen
Auszeichnungen/Preise
-
Top Innovator 2016
Intel Corporation
Indem wir mit unseren Vorträgen fast 4000 Software-Entwickler erreicht haben, wurde uns die Auszeichnung Top Innovator 2016 verliehen.
-
Oracle JavaOne Rockstar
Oracle JavaOne
"Congratulations! Your scores for the sessions below made you a top speaker at JavaOne 2015. With this honor, you are now considered one of the JavaOne Rock Stars. We would like to send you a commemorative award as recognition.
In addition to your award, we will highlight your name and session title on the JavaOne 2015 Rock Star page (https://www.oracle.com/javaone/rock-stars.html) and will add your name to the JavaOne Rock Star Wall of Fame page." -
Top Innovator 2015
Intel Corporation
Indem wir mit unseren Vorträgen mehr als 1000 Software-Entwickler erreicht haben, wurde uns die Auszeichnung Top Innovator 2015 verliehen.
-
Perceptual Computing Pioneer Awards
Intel Perceptual Computing World Challenge
Gewinner des mit 1.000 Dollar dotierten Preises "Perceptual Computing Pioneer Awards" für besonders innovative und kreative Entwicklungen, die die Grenzen der Mensch-Maschine Interaktionen gesprengt und diese damit auf eine neue Ebene gehoben haben.
Dieser Wettbewerb war eine weltweite Veranstaltung (Weltmeisterschaft), bei der 750 Teams international gegeneinander angetreten sind. -
Most Innovative App
Intel Perceptual Computing Hacknight
Auszeichnung des mit 1.000 Euro dotierten Preises "Most Innovative App" durch die Firma Intel Coporation inklusive gleichzeitiger Qualifizierung zur Intel Perceptual Worldwide Challenge.
Mit Hilfe des Intel Perceptual Computing SDK wurde während des Hackathon eine Software implementiert, mit der sich physische Objekte mit Hilfe von Gesten berührunglos steuern lassen.
Prüfungsergebnisse
-
Diplom-Informatiker
Prüfungsergebnis: Overall: 1,1
Abschlussnote: 1,1
Einzelnoten:
- Nebenfach 1,4
- Praktische Informatik 1,0
- Technische Informatik 1,0
- Theoretische Informatik 1,0
- Diplomarbeit 1,3
Sprachen
-
Deutsch
Muttersprache oder zweisprachig
-
Englisch
Verhandlungssicher
-
Französisch
Grundkenntnisse
-
Spanisch
Grundkenntnisse
Organisationen
-
Politische Partei
Zweiter Vorsitzender
–Heute -
Crossfire LAN e.V.
Vereinsvorsitzender
– -
Müllinitiative Schrobenhausener Land e.V.
Zweiter Vorsitzender
Erhaltene Empfehlungen
-
LinkedIn Mitglied
1 Person hat Thomas Endres empfohlen
Jetzt anmelden und ansehenWeitere Aktivitäten von Thomas Endres
-
AI entertainment, an AI talk, and AI showcases galore – that's what we are bringing to the KI Navigator 2024. The conference takes place in Nuremberg…
AI entertainment, an AI talk, and AI showcases galore – that's what we are bringing to the KI Navigator 2024. The conference takes place in Nuremberg…
Beliebt bei Thomas Endres
-
Yesterday, we successfully hosted two meetups at our offices in Munich and Unterföhring, welcoming numerous guests. In our office at Arabellastraße,…
Yesterday, we successfully hosted two meetups at our offices in Munich and Unterföhring, welcoming numerous guests. In our office at Arabellastraße,…
Beliebt bei Thomas Endres
-
I had the great opportunity to give the talk "From Particles to Programs" together with my colleague Thomas Hugle at the Graduate Days of the…
I had the great opportunity to give the talk "From Particles to Programs" together with my colleague Thomas Hugle at the Graduate Days of the…
Beliebt bei Thomas Endres
-
Our Atlassian Consulting Team (ACT) is showcasing their apps at a booth at Team'24 Europe in Barcelona today. This conference, organized by…
Our Atlassian Consulting Team (ACT) is showcasing their apps at a booth at Team'24 Europe in Barcelona today. This conference, organized by…
Beliebt bei Thomas Endres
-
🤖 Macht Euer Unternehmen fit für die Zukunft – mit künstlicher Intelligenz! Alles, was Ihr wissen müsst, erfahrt Ihr beim Spotlight »KI-ready!« am…
🤖 Macht Euer Unternehmen fit für die Zukunft – mit künstlicher Intelligenz! Alles, was Ihr wissen müsst, erfahrt Ihr beim Spotlight »KI-ready!« am…
Beliebt bei Thomas Endres
-
Unser Team telecomunique GmbH war am Mittwoch Abend im Paulaner Festzelt auf der Wiesn. Der Feiertag gestern kam uns somit ganz gelegen. 😂
Unser Team telecomunique GmbH war am Mittwoch Abend im Paulaner Festzelt auf der Wiesn. Der Feiertag gestern kam uns somit ganz gelegen. 😂
Beliebt bei Thomas Endres
-
Letzte Woche hatte ich die einzigartige Gelegenheit, gemeinsam mit dem Alphazirkel und dem VDA erneut das Silicon Valley zu besuchen. Als…
Letzte Woche hatte ich die einzigartige Gelegenheit, gemeinsam mit dem Alphazirkel und dem VDA erneut das Silicon Valley zu besuchen. Als…
Beliebt bei Thomas Endres
-
🤖 AI & Prompt Engineering Meetup Munich 🗓️ 17. Oktober | 🕐 18:15 Uhr | 📍 München & Remote | 🎤 Englisch Für Kurzentschlossene: Am Donnerstag…
🤖 AI & Prompt Engineering Meetup Munich 🗓️ 17. Oktober | 🕐 18:15 Uhr | 📍 München & Remote | 🎤 Englisch Für Kurzentschlossene: Am Donnerstag…
Beliebt bei Thomas Endres
-
Der DOAG-Tourbus kommt im Oktober zu uns. Wir freuen uns auf tolle Gespräche!
Der DOAG-Tourbus kommt im Oktober zu uns. Wir freuen uns auf tolle Gespräche!
Geteilt von Thomas Endres
-
Der DOAG Tourbus ist wieder unterwegs quer durch Deutschland, diesmal von Oktober bis November mit vielen spannenden KI-Themen im Gepäck…
Der DOAG Tourbus ist wieder unterwegs quer durch Deutschland, diesmal von Oktober bis November mit vielen spannenden KI-Themen im Gepäck…
Beliebt bei Thomas Endres
Weitere ähnliche Profile
Weitere Mitglieder namens Thomas Endres in Deutschland
-
Thomas Endres
-
Thomas Endres
-
Thomas Endres
Head of New Products and Materials
-
Thomas Endres
Studium an der Hochschule Julius-Maximilians-Universität Würzburg
-
Thomas Endres
Unternehmensberater
Es gibt auf LinkedIn 36 weitere Personen namens Thomas Endres, die sich in Deutschland befinden.
Weitere Mitglieder anzeigen, die Thomas Endres heißen