Thomas Endres

Thomas Endres

Metropolregion München
2087 Follower:innen 500+ Kontakte

Info

Mein Name ist Thomas Endres und ich bin ein IT-Consulant, der für TNG Technology…

Artikel von Thomas Endres

Aktivitäten

Anmelden, um alle Aktivitäten zu sehen

Berufserfahrung

  • TNG Technology Consulting Grafik

    TNG Technology Consulting

    Unterföhring, Bayern, Deutschland

  • -

    Poing

  • -

    Eching, Poing

  • -

    München und Umgebung, Deutschland

  • -

    Unterföhring

  • -

    Unterföhring

  • -

    Landshut

  • -

    Unterföhring

  • -

    Unterföhring

  • -

    Garching bei München

  • -

    Schrobenhausen

  • -

    Schrobenhausen

  • -

    Garching bei München

  • -

    Landshut und Umgebung, Deutschland

  • -

    Schrobenhausen

  • -

    Garching bei München

Ausbildung

  • Technische Universität München Grafik

    Technische Universität München

    Activities and Societies: TU Film

    Schwerpunkte User-Interfaces, verteilte Anwendungen Web-Anwendungen, Software-Engineering und Projektmanagement
    Studienarbeit über die Entwicklung eines Fahrerinformationssystems (Kooperationsprojekt mit der BMW AG)
    Universitätsinterne Praktika über internetbasierte Geschäftssysteme, XML-Technologie, 3D-Animation, und künstliche Intelligenz

  • Activities and Societies: Leistungskurse Mathematik und Physik

Bescheinigungen und Zertifikate

Ehrenamt

  • Ehrenamtliche Mitarbeit

    Deutsches Museum

    –Heute 8 Jahre 3 Monate

    Education

    Betreuung eines Exponats, mit dem Besucher per Gestensteuerung einen Roboter in der Ausstellung kontrollieren können.

Veröffentlichungen

  • Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz

    OOP 2022

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.

    Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.

    In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Faking Deep Discussions with NLP - An Ironic AI Solution to Online Debate

    Intel Ignite

    Using modern AI approaches such as GPT-2, Tacotron and Conformers, we created fully autonomous robot heads that engage in heated social media discussions, completely taking the human out of the loop. The TNG Innovation Hacking Team created a prototype of an end-to-end natural language understanding system, employing techniques such as Speech-to-Text (STT), Conditional Text Generation and Text-To-Speech (TTS).

    Social media comments have become the predominant medium for public discussion.…

    Using modern AI approaches such as GPT-2, Tacotron and Conformers, we created fully autonomous robot heads that engage in heated social media discussions, completely taking the human out of the loop. The TNG Innovation Hacking Team created a prototype of an end-to-end natural language understanding system, employing techniques such as Speech-to-Text (STT), Conditional Text Generation and Text-To-Speech (TTS).

    Social media comments have become the predominant medium for public discussion. However, discussions on Facebook, Twitter and Reddit are notorious for their poor debate culture and missing conclusiveness. The obvious solution to this tremendous waste of time is automation of such fruitless discussions using a bot.

    In this talk, we will give an introduction to NLP, focussing on the concepts of STT, Text Generation and TTS. Using live demos, we will guide you through the process of scraping social media comments, training a text generation model, synthesising millions of voices and building IoT robot heads.

    Andere Autor:innen
  • Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen

    OOP 2022

    Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
    Kommentarspalten in…

    Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
    Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots.
    In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von Tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen.

    Veröffentlichung anzeigen
  • Pushing Deepfakes to the Limit - Fake video calls with AI

    JavaZone

    Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.

    Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool…

    Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.

    Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool. Meanwhile different media outlets such as "Leschs Kosmos", Galileo and other television formats have been using TNG Deepfakes.

    In this talk we will show the different evolutionary steps of the Deepfake technology, starting with the first Deepfakes and ending with real-time Deepfakes of the entire head in high resolution. Several live demos will shed light on individual components of the software. In particular, we focus on various new technologies to improve Deepfake generation, such as Tensorflow 2 and MediaPipe, and the differences in comparison to our previous implementations.

    Veröffentlichung anzeigen
  • Deepfakes am Limit – Fake-Videocalls mit Künstlicher Intelligenz

    IT Tage

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.

    Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.

    In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Brain Computer Interfaces Demystified - Can thoughts take over control?

    J-Fall

    What if a Brain Computer Interface (BCI) could translate your thoughts into commands, to control software or hardware? The TNG Innovation Hacking Team worked with various brain computer interfaces and is trying to develop such software. An interesting device in this environment is the OpenBCI, which provides programming interfaces for e.g. C + +, Python, Java and R.

    The lecture gives an overview of different BCI manufacturers and types, as well as their different approaches to record and…

    What if a Brain Computer Interface (BCI) could translate your thoughts into commands, to control software or hardware? The TNG Innovation Hacking Team worked with various brain computer interfaces and is trying to develop such software. An interesting device in this environment is the OpenBCI, which provides programming interfaces for e.g. C + +, Python, Java and R.

    The lecture gives an overview of different BCI manufacturers and types, as well as their different approaches to record and interpret brain waves. The team took up the challenge to use techniques from artificial intelligence, which support the evaluation of brain currents from electroencephalography (EEG). The speakers present prototypical showcases including such devices as OpenBCI, EMotive Epoc-X and NextMind, sharing their experience with the audience.

    In this exciting and entertaining lecture you will get an introduction to the world of mind control. The speakers will focus in particular on the deep learning techniques used in this application. The introduction of e.g. evolutionary strategies in the form of genetic algorithms for the optimization of artificial, neural networks round off the presentation.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Pushing Deepfakes to the Limit - Fake video calls with AI

    Devoxx UK

    Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.

    Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool…

    Today's real-time Deepfake technology makes it possible to create indistinguishable doppelgängers of a person and let them participate in video calls. Since 2019, the TNG Innovation Hacking Team has intensively researched and continuously developed the AI around real-time Deepfakes. The final result and the individual steps towards photorealism will be presented in this talk.

    Since its first appearance in 2017, Deepfakes have evolved enormously from an AI gimmick to a powerful tool. Meanwhile different media outlets such as "Leschs Kosmos", Galileo and other television formats have been using TNG Deepfakes.

    In this talk we will show the different evolutionary steps of the Deepfake technology, starting with the first Deepfakes and ending with real-time Deepfakes of the entire head in high resolution. Several live demos will shed light on individual components of the software. In particular, we focus on various new technologies to improve Deepfake generation, such as Tensorflow 2 and MediaPipe, and the differences in comparison to our previous implementations.

    Andere Autor:innen
  • Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?

    Big Techday 21

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und…

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen, sowie deren unterschiedlichen Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases u.a. mit OpenBCI, EMotiv Epoc-X und NextMind implementiert und teilen ihre Erfahrung mit dem Publikum. In diesem spannenden und unterhaltsamen Vortrag erhalten Sie eine Einführung in die Welt der Gedankensteuerung. Dabei gehen die Sprecher insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Die Einführung von z.B. Evolutions-Strategien in Form genetischer Algorithmen zur Optimierung künstlicher, neuronaler Netze runden den Vortrag ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz

    Big Techday 21

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem…

    Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt. Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes. In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Die Shitposting-KI - Eine ironische Lösung für fruchtlose Onlinediskussionen

    Big Techday 21

    Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototypen eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen. Kommentarspalten in…

    Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototypen eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen. Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots. In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks Are Changing Our World

    CodeEurope Gdansk

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.

    Expect an entertaining and vivid introduction into the world of real-time Deepfakes. Several live demonstrations will complete this event.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes in Echtzeit – Wie neuronale Netze unsere Welt verändern

    DWX

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes in Realtime - How Neural Networks Are Changing Our World

    We Are Developers

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.

    IIn this talk, Thomas Endres, Martin Förtsch and Jonas Mayer will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern

    TDWI

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Realtime Deepfakes - How Neural Networks Are Changing Our World

    DevDays Europ

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.

    In this talk, Thomas Endres and Martin Förtsch will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Minds Mastering Machines

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG-Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG-Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik wird es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres, Martin Förtsch und Jonas Mayer eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deep Fakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?

    SEACON

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt.

    Der Vortrag gibt einen Überblick über verschiedene…

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht eine solche Software zu entwickeln. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereit stellt.

    Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen, sowie deren unterschiedlichen Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases implementiert und teilen Ihre Erfahrung mit dem Publikum.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Javaland 2021

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes in Echtzeit – Wie neuronale Netze unsere Welt verändern

    CodeDays 2021

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen. Martin Förtsch und Jonas Mayer führen in die KI-Techniken ein, die zur Realisierung von Echtzeit-Deepfakes zum Einsatz kamen, wie z.B. Deep- und Transfer Learning oder GANs. Mehrere…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen. Martin Förtsch und Jonas Mayer führen in die KI-Techniken ein, die zur Realisierung von Echtzeit-Deepfakes zum Einsatz kamen, wie z.B. Deep- und Transfer Learning oder GANs. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Keynote: Betting the Future of AI with Live Innovation Hacking Tour at TNG Labs

    OOP 2021

    For this keynote, Intel Software and TNG Technology Consulting go on a journey to some amazing innovations in Artificial Intelligence. Starting with the concept of Intel® oneAPI and introducing software development tools enabling a multi-architecture future, the keynote will travel in real-time to the AI Labs of TNG in Munich where Thomas Endres, Martin Förtsch and Jonas Mayer will take the audience on an exciting Live Innovation Hacking Tour showcasing the latest capabilities of AI at the edge.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?

    OOP 2021

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich auf Basis eines OpenBCI mit dem Thema auseinandergesetzt und eine solche Software entwickelt.

    Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen. Das Team hat Techniken aus dem Bereich der künstlichen Intelligenz und genetischen Algorithmen eingesetzt, um die Auswertung von Gehirnströmen…

    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich auf Basis eines OpenBCI mit dem Thema auseinandergesetzt und eine solche Software entwickelt.

    Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen. Das Team hat Techniken aus dem Bereich der künstlichen Intelligenz und genetischen Algorithmen eingesetzt, um die Auswertung von Gehirnströmen aus der Elektroenzephalografie (EEG) zu unterstützen.

    Zielpublikum: Entwickler, Projektleiter, Entscheider, Management
    Voraussetzungen: IT-Affinität, Grundlagen Künstliche Intelligenz
    Schwierigkeitsgrad: Anfänger

    Extended Abstract:
    Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen BCI-Geräten auseinandergesetzt und eine solche Software entwickelt. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereitstellt.

    Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen, sowie deren unterschiedliche Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der Künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases unter Anwendung eines OpenBCI implementiert.

    In diesem spannenden und unterhaltsamen Vortrag erhalten Sie eine Einführung in die Welt der Gedankensteuerung. Dabei gehen die Sprecher insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Die Einführung von z.B. Evolutions-Strategien in Form genetischer Algorithmen zur Optimierung künstlicher, neuronaler Netze runden den Vortrag ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks are Changing our World

    GIDS AI&ML

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time.

    The TNG Innovation Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people. For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms.

    In this talk, Thomas Endres and Martin Förtsch will give an entertaining and vivid introduction into the world of real-time Deepfakes. In doing so, they particularly focus on the deep learning techniques used in within the application. Several live demonstrations will complete this event.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Style Transfer AI - How Neural Networks Generate Art

    GIDS AI&ML

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso. Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks are Changing our World

    CodeMotion Online Tech Conference - Spanish Edition

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks are Changing our World

    CodeMotion Online Tech Conference - Spanish Edition

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Deepfakes für Lehrkräfte

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
  • Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.

    Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks are Changing our World

    Eröffnung Amerikahaus München

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this…

    Imagine looking into a mirror, but not to see your own face. Instead, you are looking in the eyes of Barack Obama or Angela Merkel. Your facial expressions are seamlessly transferred to that other person's face in real time. The TNG Hardware Hacking Team has managed to create a prototype that transfers faces from one person to another in real time based on Deepfakes. Neural networks detect faces within a video input, then translate them and integrate them back to the video output. Through this technique it is possible to project deceptively real imitations onto other people.

    Andere Autor:innen
  • Deepfakes - Erkennst du die Fälschung?

    WDR Aktuelle Stunde

  • Automatisierte Migration von Legacy Code

    Big Techday 13

    Wir stellen einen neuen Ansatz und dessen Umsetzung zur Migration von Legacy- Code vor, die auf testgetriebene Entwicklung sowie kundenspezifische Erweiterungen setzen. Der Code wird hierbei automatisiert von einer veralteten Ausgangssprache wie PL/I hin zu einer modernen Sprache wie Java übersetzt. Dadurch verhindern wir repetitive und fehleranfällige Arbeit bei der Übersetzung. Gleichzeitig vermeiden wir durch den Einsatz kundenspezifischer Heuristiken eine zu starke Generalisierung des…

    Wir stellen einen neuen Ansatz und dessen Umsetzung zur Migration von Legacy- Code vor, die auf testgetriebene Entwicklung sowie kundenspezifische Erweiterungen setzen. Der Code wird hierbei automatisiert von einer veralteten Ausgangssprache wie PL/I hin zu einer modernen Sprache wie Java übersetzt. Dadurch verhindern wir repetitive und fehleranfällige Arbeit bei der Übersetzung. Gleichzeitig vermeiden wir durch den Einsatz kundenspezifischer Heuristiken eine zu starke Generalisierung des erzeugten Codes und dieser bleibt einfach lesbar. Im Vortrag gehen wir zunächst darauf ein, wie wir allgemeine Features der Ausgangssprache durch eine kontextfreie Grammatik abbilden und daraufhin automatisiert übersetzen. Ebenso stellt die Integration kundenspezifischer Features und die iterative Erweiterung des Übersetzers (Transpilers) einen wichtigen Grundpfeiler unseres Ansatzes dar. Diesen zeigen wir am Beispiel ausgewählter Präprozessor-Direktiven. Ebenso gehen wir auf das speziell für diesen Zweck geschaffene Modultest-Framework für PL/I und dessen Einsatz in der testgetriebenen Übersetzung ein. Zuletzt beleuchten wir die zuverlässige Beibehaltung der Semantik des Original-Codes und ebnen damit den Weg für nachfolgendes Refactoring in der Zielsprache.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Die Trainer-KI - Mit neuronalen Netzen zu den Olympischen Spielen

    Big Techday 13

    Künstliche Intelligenz kann neuerdings im olympischen Sport eingesetzt werden, um in Echtzeit Technikauswertungen für Sportler zu erstellen und somit stundenlange Nachbearbeitung der Videos durch den Trainer zu ersetzen. In Zusammenarbeit mit dem Olympiastützpunkt Heidelberg hat das TNG Innovation Hacking Team eine Software erstellt, die die wissenschaftliche Technik-Analyse im Kanu-Spitzensport automatisiert. Einst mussten Videoaufnahmen langwierig gesichtet und Einzelbilder von Hand auf…

    Künstliche Intelligenz kann neuerdings im olympischen Sport eingesetzt werden, um in Echtzeit Technikauswertungen für Sportler zu erstellen und somit stundenlange Nachbearbeitung der Videos durch den Trainer zu ersetzen. In Zusammenarbeit mit dem Olympiastützpunkt Heidelberg hat das TNG Innovation Hacking Team eine Software erstellt, die die wissenschaftliche Technik-Analyse im Kanu-Spitzensport automatisiert. Einst mussten Videoaufnahmen langwierig gesichtet und Einzelbilder von Hand auf bestimmte Winkel analysiert werden. Dank unserer Applikation geschieht diese Auswertung nun vollkommen automatisiert mittels mehrerer aktueller Techniken aus dem Bereich der neuronalen Netze.
    In diesem Vortrag lernen Sie, wie die Software aus dem rohen Videomaterial die Winkel ermittelt, mit dem ein Kanut sein Paddel ins Wasser einsticht. Die Vortragenden zeigen Ihnen hierfür, wie man mittels Segmentierung die wackeligen Kamerabilder gegen die Wasserlinie stabilisiert, wie OpenPose die die Hände des Sportlers findet und wie ein Klassifikationsmodell mittels Transfer Learning zwischen einem Paddel überhalb und unterhalb der Wasserlinie unterscheidet. Dabei gehen die TNG-Consultants auch auf Details der verwendeten Technologien und neuronalen Netze ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Reinforcement Learning am Beispiel einer Computerspiel-KI

    Big Techday 13

    Das Training von KI-Systemen lässt sich durch den Einsatz simulierter Umgebungen beschleunigen, indem diese realitätsnahe Daten für komplexe Problemstellungen liefern. Anhand des von TNG entwickelten Virtual Reality-Spieles "Blobby VR" zeigen wir die Verknüpfung von Reinforcement Learning mit einer simulierten Umgebung für das Training einer Computerspiel-KI. Reinforcement Learning steht für eine Reihe von Methoden des maschinellen Lernens. Ein Agent maximiert erhaltene Belohnungen, indem er…

    Das Training von KI-Systemen lässt sich durch den Einsatz simulierter Umgebungen beschleunigen, indem diese realitätsnahe Daten für komplexe Problemstellungen liefern. Anhand des von TNG entwickelten Virtual Reality-Spieles "Blobby VR" zeigen wir die Verknüpfung von Reinforcement Learning mit einer simulierten Umgebung für das Training einer Computerspiel-KI. Reinforcement Learning steht für eine Reihe von Methoden des maschinellen Lernens. Ein Agent maximiert erhaltene Belohnungen, indem er selbständig eine Strategie erlernt. Für dieses Beispiel nutzen wir eine Simulation, um den Lernprozess eines tiefen, neuronalen Netzes zu beschleunigen. Im Vortrag gehen wir zunächst auf die Grundlagen des Reinforcement Learnings und der Simulation ein. Anschließend zeigen wir auf, wie eine Verknüpfung dieser beiden Techniken innerhalb der Spieleengine Unity möglich ist. Die simulierte Umgebung bildet dabei die Realität in allen relevanten Aspekten nach und bietet die Möglichkeit, menschlichen Spieler durch KI-Agenten zu ersetzen. Mit Reinforcement Learning kann das Verhalten eines realen Spielers erlernt werden. Abschließend zeigen wir, wie sich unser Beispiel auf andere Anwendungsfälle, wie beispielsweise in der Produktion und Logistik, übertragen lässt.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deep Fakes 2.0 – Wie neuronale Netze unsere Welt verändern

    OOP 2020

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
    Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototyp zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz.
    Durch die Anwendung neuronaler Netze…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
    Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototyp zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz.
    Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze sowie verschiedene Gesichtserkennungs-Algorithmen.
    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deep Fakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deepfakes 2.0 - How Neural Networks are Changing our World

    JFall

    Imagine that you are standing in front of a mirror, but no longer see your own face, but through the eyes of Barack Obama or Angela Merkel. In real time, your own facial expressions are transferred to someone else’s face.

    The TNG Hardware Hacking Team has managed to create such a prototype and transfer a person’s face to any other face in real time. The basis for this is the so-called deep-fake approach. The use of neural networks detects faces of video input, translates and integrates…

    Imagine that you are standing in front of a mirror, but no longer see your own face, but through the eyes of Barack Obama or Angela Merkel. In real time, your own facial expressions are transferred to someone else’s face.

    The TNG Hardware Hacking Team has managed to create such a prototype and transfer a person’s face to any other face in real time. The basis for this is the so-called deep-fake approach. The use of neural networks detects faces of video input, translates and integrates them back to the video output. Through this technique, it is possible to project deceptively real imitations to other people.

    For this purpose, we used Keras trained autoencoder networks and various face recognition algorithms. In this talk, Thomas Endres and Martin Förtsch give one entertaining and very vivid introduction to the world of deep fakes in real time. In doing so, they particularly focus on deep learning techniques used in this application.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deep Fake Trouble - Was tun gegen gefälschte Inhalte?

    Medientage München

    Deepfakes sind im Netz weit verbreitet. Die Anzahl hat sich im Zeitraum von etwas mehr als einem halben Jahr fast verdoppelt – zu diesem Schluss kommt die jüngste Untersuchung von Deeptrace. Das niederländische Unternehmen stieß bei seiner Analyse auf fast 14.700 Deepfake Videos. Im Dezember 2018 waren es noch unter 8.000. Noch ist die Erstellung von perfekten Deepfakes sicherlich nicht mal so nebenbei und für jedermann umsetzbar. Doch die Technologie soll sich schneller weiterentwickeln als…

    Deepfakes sind im Netz weit verbreitet. Die Anzahl hat sich im Zeitraum von etwas mehr als einem halben Jahr fast verdoppelt – zu diesem Schluss kommt die jüngste Untersuchung von Deeptrace. Das niederländische Unternehmen stieß bei seiner Analyse auf fast 14.700 Deepfake Videos. Im Dezember 2018 waren es noch unter 8.000. Noch ist die Erstellung von perfekten Deepfakes sicherlich nicht mal so nebenbei und für jedermann umsetzbar. Doch die Technologie soll sich schneller weiterentwickeln als bisher von Experten angenommen: Deepfake-Pionier Hao Li stellte Ende September auf der EmTech-Konferenz in Massachusetts die Prognose, dass innerhalb weniger Jahre perfekte und praktisch nicht nachweisbare Deepfakes möglich sein könnten. Die Möglichkeit, Mimik und Stimmen von den Mächtigen der Welt zu synthetisieren und sie beliebige Sätze sagen zu lassen, birgt enorme Gefahren für Politik, Wirtschaft und Gesellschaft. Deepfakes haben das Potenzial, die Effekte von Fake-News-Kampagnen um ein Vielfaches zu übersteigen. Vor allem Medien stellt dies vor neue Herausforderungen – Deepfakes zu erkennen, fordert den redaktionellen Alltag heraus, erfordert völlig neue Skills und Techniken. Das Panel soll aufzeigen, wo das Phänomen Deepfake aktuell steht, welche Technologien und Mechanismen dahinterstehen und wie man gefälschte Inhalte erkennt und bekämpfen kann.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Style Transfer - How neural networks generate art

    JavaZone

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer".

    It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer".

    It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.

    Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.

    Veröffentlichung anzeigen
  • Style Transfer – Wie neuronale Netze Kunst erzeugen

    heise Herbstcampus

    Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?

    Dem Hardware-Hacking-Team von TNG ist es gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil berühmter Maler wie Claude Monet oder Pablo…

    Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?

    Dem Hardware-Hacking-Team von TNG ist es gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil berühmter Maler wie Claude Monet oder Pablo Picasso.

    Grundlage dieses Projekts ist der sogenannte Style Transfer, eine der derzeit spannendsten Entwicklungen im Bereich der künstlichen Intelligenz. Darunter versteht man die Möglichkeit, eine Art Patchwork oder Pastiche aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.

    In dieser Keynote geben Thomas Endres und Martin Förtsch eine unterhaltsame und anschauliche Einführung in die Welt des Realtime Style Transfer. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Stereoscopic Real-time Style Transfer AI – Art is not what you see?

    TDWI München

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? One interesting development in the field of Deep Learning is the so called 'Style Transfer'. It describes a possibility to create a patchwork from two images. While one of these images defines the artistic style of the result picture, the other one is used for extracting the image content.

    The Hardware Hacking Team from TNG Technology Consulting managed to built an…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? One interesting development in the field of Deep Learning is the so called 'Style Transfer'. It describes a possibility to create a patchwork from two images. While one of these images defines the artistic style of the result picture, the other one is used for extracting the image content.

    The Hardware Hacking Team from TNG Technology Consulting managed to built an application to realize such goggles. Within this talk you will be introduced into the field of Real-time Style Transfer. It will also cover in detail the Deep Learning techniques used for this application.

    Veröffentlichung anzeigen
  • Style Transfer AI – Wie neuronale Netze Kunst erzeugen

    DWX Developer Week

    Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt…

    Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt. Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Mittels dieser erscheint die Umwelt dann im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfers. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei dieser Anwendung zum Einsatz kommen.

    Veröffentlichung anzeigen
  • Betrugserkennung im SWIFT-Interbankenverkehr

    Big TechDay

    Gerade im Bereich des internationalen Zahlungsverkehrs und bei einer hohen Anzahl an Überweisungen ist Betrug keine Seltenheit. TNG hat in Zusammenarbeit mit einem FinTech-Kunden Bellin eine auf Machine Learning beruhende Methode entwickelt, mit der die Erkennung von Betrugsfällen erleichtert werden konnte. Dadurch, dass Zahlungen auf diese Weise gemäß ihrer Betrugswahrscheinlichkeit vorsortiert werden können, müssen Sachbearbeiter nicht mehr alle Zahlungen untersuchen, sondern kann sich…

    Gerade im Bereich des internationalen Zahlungsverkehrs und bei einer hohen Anzahl an Überweisungen ist Betrug keine Seltenheit. TNG hat in Zusammenarbeit mit einem FinTech-Kunden Bellin eine auf Machine Learning beruhende Methode entwickelt, mit der die Erkennung von Betrugsfällen erleichtert werden konnte. Dadurch, dass Zahlungen auf diese Weise gemäß ihrer Betrugswahrscheinlichkeit vorsortiert werden können, müssen Sachbearbeiter nicht mehr alle Zahlungen untersuchen, sondern kann sich stattdessen auf Hochrisikoüberweisungen konzentrieren. In diesem Vortrag stellen wir vor, wie diese Betrugserkennung technisch realisiert wurde.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Blobby VR - Wie programmiere ich ein Multiplayer-Volleyball-Spiel in VR?

    Big TechDay

    Wie können wir ein Mehrspieler-Volleyballspiel in VR entwickeln? Ist das überhaupt möglich? Welche Stolperfallen lauern auf dem Weg dorthin? Und kann das Spaß machen? Diese Fragen haben wir uns vor einem Jahr gestellt. Die Antworten können wir Ihnen heute geben. In diesem Vortrag möchten wir von den Herausforderungen berichten, die wir auf dem Weg zu einem fertigen Spiel bewältigen mussten. Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal-…

    Wie können wir ein Mehrspieler-Volleyballspiel in VR entwickeln? Ist das überhaupt möglich? Welche Stolperfallen lauern auf dem Weg dorthin? Und kann das Spaß machen? Diese Fragen haben wir uns vor einem Jahr gestellt. Die Antworten können wir Ihnen heute geben. In diesem Vortrag möchten wir von den Herausforderungen berichten, die wir auf dem Weg zu einem fertigen Spiel bewältigen mussten. Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Dennoch bleiben die spezifischen Herausforderungen bei der individuellen Implementierung bestehen. Insbesondere werden wir auf die Schwierigkeiten im Umgang mit der Netzwerklatenz und der Wechselwirkung mit der Physikengine eingehen. Außerdem zeigen wir, wie wir iterativ an der Spiel- und Ballmechanik gearbeitet haben, um ein nicht nur realistisch wirkendes, sonder auch ein vor allem unterhaltsames Spielverhalten zu erzielen.

    Veröffentlichung anzeigen
  • Deepfakes 2.0 - Wie neuronale Netze unsere Welt verändern

    Big TechDay

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz. Durch die Anwendung neuronaler Netze…

    Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitiationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze sowie verschiedene Gesichtserkennungs-Algorithmen. In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Style Transfer - Wie neuronale Netze Kunst erzeugen

    https://www.m3-konferenz.de/lecture.php?id=8569&source=0

    Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?

    Dem TNG Hardware-Hacking-Team ist es kürzlich gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo…

    Stellen Sie sich das mal vor: Wie wäre es, wenn Sie eine Virtual-Reality-Brille aufsetzten und in Echtzeit erschiene Ihre Umwelt als ein riesiges räumliches Gemälde, ganz im Stil eines Kunstwerkes von beispielsweise Vincent Van Gogh?

    Dem TNG Hardware-Hacking-Team ist es kürzlich gelungen, eine derartige Brille zu entwickeln – unter Verwendung von OpenCV und ML-Tools wie TensorFlow. Mit dieser Brille erscheint die Umwelt im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso.

    Grundlage dieses Projekts ist der sogenannte Style Transfer, eine der derzeit spannendsten Entwicklungen im Bereich der künstlichen Intelligenz. Darunter versteht man die Möglichkeit, eine Art Patchwork oder Pastiche aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.

    In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt des Realtime Style Transfer. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Stereoscopic Style Transfer AI - How neural networks generate art

    TEQnation

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called “Style Transfer”.

    It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called “Style Transfer”.

    It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.

    Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Stereoscopic Style Transfer – Art is not what you see?

    CodeMotion Amsterdam

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. A team from TNG…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. A team from TNG Technology Consulting managed to build an AI showcase using OpenCV and Tensorflow to realize such goggles.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • How Machines learn to Code - Machine Learning on Source Code

    AccSoCon 2019

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Sie lernen die verwendeten Vektorrepräsentationen, aber auch verschiedene Modelle und Methoden zur Ermittlung von Daten kennen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Machine Learning on Source Code

    Informatik aktuell

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können.

    Beispielsweise gibt es für die Verarbeitung von Bilddaten mittlerweile schon Standardverfahren, mit denen Lernalgorithmen deren Zweidimensionalität beachten. Für die Kodierung der semantischen Struktur von Source Code gibt es allerdings noch keine verbreiteten Techniken. Deshalb mussten wir neue Wege zur mathematischen Darstellung des Codes von Projekten finden, die wir Ihnen im ersten Teil des Vortrags vorstellen. Daraufhin lernen Sie Ansätze für die automatische wie auch manuelle Trainingsdatengenerierung kennen. Ein weiterer Teil der Präsentation umfasst einen Überblick über unterschiedliche Modelle und Frameworks für maschinelles Lernen, die in diesem Kontext sinnvoll erscheinen. Der letzte Abschnitt beschäftigt sich schließlich mit den Möglichkeiten zur Nutzung solcher Modelle zur Analyse von Code.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Deep Learning in Practice – Stereoscopic Style Transfer AI

    AI DevCon 2019 EMEA

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh? One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso. Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Stereoscopic Style Transfer – Mit Deep Learning die Welt als Echtzeit-Gemälde erleben

    OOP 2019

    Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde?
    Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu…

    Was wäre, wenn eine Virtual-Reality-Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde?
    Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit, eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt.
    Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen, unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Mittels dieser erscheint die Umwelt dann im Stil von berühmten Malern wie z.B. Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfer. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei dieser Anwendung zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • How Machines Learn to Code - Testvorhersage auf Basis von Source Code

    Software Quality Days 2019

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Sie lernen die verwendeten Vektorrepräsentationen, aber auch verschiedene Modelle und Methoden zur Ermittlung von Daten kennen.

    Veröffentlichung anzeigen
  • Stereoscopic Style Transfer AI - Art is not what you see?

    Devoxx Belgium

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh?

    One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is…

    What if Virtual Reality glasses could transform your environment into a three-dimensional work of art in realtime? What if every detail of the world would be shown in the style of a painting from Van Gogh?

    One of the many interesting developments in the field of Deep Learning is the so called "Style Transfer". It describes a possibility to create a patchwork (or pastiche) from two images. While one of these images defines the the artistic style of the result picture, the other one is used for extracting the image content. The Hardware Hacking Team from TNG Technology Consulting managed to build an application using OpenCV and Tensorflow to realize such goggles. When you see the world through these glasses, your environment will be displayed in the styles of famous painters like Claude Monet or Pablo Picasso.

    Within this talk you will be introduced into the scientific field of Realtime Style Transfer. It will also cover and explain in detail the Deep Learning techniques used for this application.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • How machines learn to code: Machine learning on source code

    Oracle CodeOne

    Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to…

    Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to mathematically represent the code of projects. This technology offers a variety of possible applications, for example, in the area of static code analysis or in the automatic selection of relevant test cases.

    Thomas Endres and Samuel Hopstock share methods for transferring classic machine learning approaches to this new field of expertise. Along the way, Thomas and Samuel detail approaches for both automatic and manual training data generation and offer an overview of suitable models and machine learning frameworks for this challenge. They conclude by exploring the possibilities of using such models for the analysis of code.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • How machines learn to code: Machine learning on source code

    O'Reilly AI Conference

    Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to…

    Machine learning on source code is a new area of research in the field of artificial intelligence, which, unlike classical problems such as image segmentation, does not yet have established standard techniques. For instance there are standard methods for processing images that make machine learning algorithms pay attention to their two-dimensionality. However, there are currently no common techniques for encoding the semantic structure of source code. Therefore, you need new ways to mathematically represent the code of projects. This technology offers a variety of possible applications, for example, in the area of static code analysis or in the automatic selection of relevant test cases.

    Thomas Endres and Samuel Hopstock share methods for transferring classic machine learning approaches to this new field of expertise. Along the way, Thomas and Samuel detail approaches for both automatic and manual training data generation and offer an overview of suitable models and machine learning frameworks for this challenge. They conclude by exploring the possibilities of using such models for the analysis of code.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographische Telepräsenz mit der Hololens

    Java Forum Stuttgart

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität…

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographische Telepräsenz mit der Hololens

    DWX Developer Week

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität…

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • How Machines Learn to Code - Machine Learning auf Basis von Source Code

    Big TechDay 11

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische…

    Machine Learning auf der Grundlage von Source Code ist ein neues Forschungsgebiet im Bereich der künstlichen Intelligenz, das, anders als die klassischen Probleme wie Bildsegmentierung, noch keine etablierten Standardverfahren kennt. Diese Technik bietet vielfältige Anwendungsmöglichkeiten, etwa im Bereich der statischen Code-Analyse oder bei der automatischen Auswahl relevanter Testfälle. Im Vortrag stellen die Kollegen von TNG Technology Consulting verschiedene Verfahren vor, wie klassische Machine-Learning-Ansätze auf dieses neue Fachgebiet übertragen werden können. Beispielsweise gibt es für die Verarbeitung von Bilddaten mittlerweile schon Standardverfahren, mit denen Lernalgorithmen deren Zweidimensionalität beachten. Für die Kodierung der semantischen Struktur von Source Code gibt es allerdings noch keine verbreiteten Techniken. Deshalb mussten wir neue Wege zur mathematischen Darstellung des Codes von Projekten finden, die wir Ihnen im ersten Teil des Vortrags vorstellen. Daraufhin lernen Sie Ansätze für die automatische wie auch manuelle Trainingsdatengenerierung kennen. Ein weiterer Teil der Präsentation umfasst einen Überblick über unterschiedliche Modelle und Frameworks für maschinelles Lernen, die in diesem Kontext sinnvoll erscheinen. Der letzte Abschnitt beschäftigt sich schließlich mit den Möglichkeiten zur Nutzung solcher Modelle zur Analyse von Code.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • ParrotAttacks VR - Spieleprogrammierung für die virtuelle Realität mit Unity 3D

    Big TechDay 11

    Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Mit den Engines selbt erhält der Entwickler auch Zugriff auf mächtige und umfangreichen Code-Bibliotheken, einfach zu verwendende 3D-Modelle und weitere Assets. Dies ermöglicht es ihm, sich schnell auf das eigentliche Spielkonzept zu konzentrieren, ohne viel Zeit in den Details der…

    Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Mit den Engines selbt erhält der Entwickler auch Zugriff auf mächtige und umfangreichen Code-Bibliotheken, einfach zu verwendende 3D-Modelle und weitere Assets. Dies ermöglicht es ihm, sich schnell auf das eigentliche Spielkonzept zu konzentrieren, ohne viel Zeit in den Details der 3D-Programmierung zu verlieren. In diesem Vortrag soll anhand eines einfachen Beispiels im Live-Coding ein Virtual-Reality-Spiel in Unity 3D erstellt werden. Die Vortragenden gehen dabei auf viele elementare Aspekte der 3D-Softwareentwicklung ein. Dazu zählen Kameras und Skyboxes, die Beleuchtung und die 3D-Objekte selbst wie auch deren Komponenten. Daraufhin wird der Programmfluss und die Programmierung der Spielelogik anhand eines Beispiels beschrieben. Unterfüttert wird die Demonstration mit Tipps zu Themen wie Usability und Wartbarkeit.

    Veröffentlichung anzeigen
  • Stereoscopic Style Transfer - Kunst ist das, was man sieht?

    Big TechDay 11

    Was wäre, wenn eine Augmented Reality Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu…

    Was wäre, wenn eine Augmented Reality Brille in Echtzeit Ihre Umwelt in ein riesiges räumliches Gemälde verwandeln könnte und alles im Stil eines Kunstwerkes von z.B. Van Gogh erscheinen würde? Eine der vielen spannenden Entwicklungen im Bereich des Deep Learning ist der sogenannte "Style Transfer". Darunter versteht man die Möglichkeit eine Art Patchwork (vgl. Pastiche) aus zwei Bildern zu erzeugen. Ein Bild ist dabei die künstlerische Stilvorlage, während das andere den eigentlichen zu transformierenden Inhalt darstellt. Dem Hardware-Hacking-Team der TNG Technology Consulting GmbH ist es gelungen unter Anwendung von u.a. OpenCV und TensorFlow eine solche Brille zu entwickeln. Unter Verwendung dieser Brille erscheint die Umwelt dann z.B. im Stil von berühmten Malern wie Claude Monet oder Pablo Picasso. In diesem Vortrag erhalten Sie eine Einführung in die Welt des Realtime Style Transfers. Dabei wird insbesondere auf die Techniken im Bereich des Deep Learning eingegangen, die bei der Methode des Style Transfers zum Einsatz kommen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographic telepresence using the Hololens

    CodeMotion Amsterdam 2018

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft…

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographic telepresence using the Hololens

    TEQnation

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft…

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the “Star Wars” movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographische Telepräsenz mit der Hololens

    Javaland

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität…

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up – Holographische Telepräsenz mit der HoloLens

    OOP 2018

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität…

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden diese sich im selben Raum?

    Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft HoloLens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projizieren.

    Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der HoloLens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert. Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der HoloLens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen gezeigt. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die HoloLens unter der Verwendung von Unity 3D erarbeitet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographic telepresence using the Hololens

    Intel Buzz Workshop

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the "Star Wars" movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft…

    What if Augmented Reality glasses allowed you to communicate with friends far away as if they were in the same room? The hardware hacking team of TNG Technology Consulting has implemented a software prototype enabling such hologpraphic telepresence. Using this software it is possible to project the 3D shape of another person into your own field of view. This resembles the holograms in the "Star Wars" movies.

    The Augmented Reality concept already exists since the late 1960s. Microsoft Hololens is one of the first autonomous devices that can enrich the real world with computer generated elements and so-called holograms. Within this talk we will show and explain some ideas and concepts from the field of Mixed Reality. We will present some technical details of the device and demonstrate them within live showcases. Furthermore, we will show some simple programming examples for the Hololens using Unity 3D.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Wir sind die Roboter - Wie man mit Projekt Avatar in die Rolle eines Roboters schlüpfen kann

    NerdNite München

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.

    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.

    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    CodeEurope

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    CodeMotion

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    IMWorld

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    JavaZone

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepräsenzrobotik mit Nao und Kinect

    DWX Developer Week

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.

    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.

    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Beam me up - Holographische Kommunikation mit der Hololens

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum? Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft Hololens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projezieren.
    Die Idee der erweiterten Realität (Augmented…

    Was wäre, wenn man über holographische Augmented-Reality-Brillen mit weit entfernten Bekannten so kommunizieren könnte, als befänden sie sich im selben Raum? Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat für die Microsoft Hololens einen Software-Prototypen für holographische Telepräsenz entwickelt. So ist es ähnlich wie in der Filmreihe "Star Wars" möglich, eine Person als Hologramm in das eigene Sichtfeld zu projezieren.
    Die Idee der erweiterten Realität (Augmented Reality) existiert bereits seit den späten 60er Jahren. Mit der Hololens ist es Microsoft gelungen, ein autarkes Gerät auf den Markt zu bringen, welches die reale Welt immersiv mit computergenerierten Elementen und sogenannten Hologrammen erweitert.
    Im Rahmen des Vortrags werden Ideen und Konzepte im Bereich der Mixed Reality aufgegriffen und erklärt. Technische Details der Hololens werden vorgestellt und anhand mehrerer interaktiver Live-Demonstrationen demonstriert. Darüber hinaus werden im Live-Coding einfache Programmierbeispiele für die Hololens unter der Verwendung von Unity 3D erarbeitet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    IoT TechDay 2017

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Veröffentlichung anzeigen
  • Avatar - Telepräsenzrobotik mit Nao und Kinect

    Javaland-Konferenz

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepräsenzrobotik mit Nao und Kinect

    Mobile Tech Conference

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepräsenzrobotik mit Nao und Kinect

    OOP 2017

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    VR with the Best

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java.…

    Using humanoid robots, virtual reality glasses and 3D camera sensors you can experience the world through the eyes of a robot and control it via gestures. The hardware hacking team of TNG Technology Consulting has built a telepresence robotics system based on a Nao robot, an Oculus Rift and a Kinect One. Using these components you can realize an immersive "out-of-body experience" - similar to that of the film "Avatar".
    This talk shows how easy it is to program the robot using Python or Java. We will do this by some live coding examples. Following a live demonstration of the showcase we will guide you through the complete program flow of the telepresence system. The speakers will share some insights about the challenges they faced during its implementation. The history of telepresence robotics, current trends and examples for real world fields of application will also be focused.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepresence robotics using Nao and Kinect

    ChartaCloud Nao Congress

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Sehen wie ein Terminator - Augmented Reality mit der Oculus Rift

    MobileTechCon / IoT Conference

    Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige…

    Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige selbstentwickelte Demos zeigen und einen Einblick in ihre Applikation vom Abgreifen des Videosignal bis zur Darstellung in einer VR-Brille geben.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Avatar - Telepräsenzrobotik mit Nao und Kinect

    TNG Big TechDay 9

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses…

    Mit Hilfe von humanoiden Robotern, Virtual-Reality-Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking-Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines Nao-Roboters, einer Oculus Rift und einer Kinect One implementiert. Damit lässt sich eine immersive "Out-Of-Body"-Experience - ähnlich wie im Film "Avatar" - ermöglichen.
    Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie den gesamten Programmablauf des Telepräsenzsystems wie auch die Herausforderungen bei dessen Implementierung kennenlernen. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem historischen Abriss auf aktuelle Trends und Anwendungsfälle ein.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • See like a Terminator - Augmented Reality with Oculus Rift

    IoT TechDay

    In diesem TechLounge-Interview für Mobile Geeks gehen wir auf die Geschichte der Gestensteuerung ein und erläutern diese beispielhaft anhand unserer Prototypen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Sehen wie ein Terminator - Augmented Reality mit Oculus Rift

    heise Developer World auf der CeBit

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Sehen wie Terminator - Augmented Reality mit der Oculus Rift

    Javaland

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Terminator meets Minority Report - Augmented Reality and Gestures Recognition with 3D Cameras

    Virtual Java User Group and Java Nighthacking

    Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige…

    Was wäre, wenn Gesichtserkennung Ihnen helfen könnte, die Personen vor Ihnen zu erkennen? Was wäre, wenn Sie einen Quadrokopter mittels Gestensteueurung kontrollieren könnten? Mit Hilfe von Augmented Reality und modernen 3D-Kameras hat das Maker-Team um Thomas Endres und Martin Förtsch beeindruckende Showcases entworfen, die den aktuellen Stand der Technik in diesen Bereichen aufzeigen. Die Entwickler werden über aktuelle 3D-Kameras und VR-Brillen sprechen. Aber sie werden auch einige selbstentwickelte Demos zeigen und einen Einblick in ihre Applikation vom Abgreifen des Videosignal bis zur Darstellung in einer VR-Brille geben.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Keynote: Sehen wie ein Terminator – Augmented Reality mit der Oculus Rift

    OOP-Konferenz

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • See like a Terminator - Augmented Reality with Oculus Rift

    Codemotion Berlin 2015

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • See like a Terminator - Augmented Reality with Oculus Rift

    Oracle JavaOne

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras.

    DWX Developer Week 2015 (Neue Mediengesellschaft, nmg.de)

    Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?

    Tom Cruise im Jahr 2054. Vor einem mannshohen Display stehend bewegt er seine Hände und ordnet die dargestellten Informationen…

    Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?

    Tom Cruise im Jahr 2054. Vor einem mannshohen Display stehend bewegt er seine Hände und ordnet die dargestellten Informationen freihändig und nach seinen Vorstellungen auf dem Bildschirm an. Das war eine Schlüsselszene aus dem im Jahr 2002 erschienenen Kinofilm “Minority Report”. Um dem Film etwas mehr wissenschaftlichen Charakter zu verleihen, bildete der Regisseur Steven Spielberg eine Expertenkommission und lud 15 Spezialisten auf diesem Gebiet in ein Hotel in Santa Monica ein. Dort wurden die Grundlagen für eine Computersteuerung entworfen. Diese noch zu entwickelnde Steuerung sollte nicht nur alle üblichen Interaktionen mit der Software vor einem Display erfüllen, sondern dabei auch noch futuristisch aussehen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Sehen wie ein Terminator - Augmented Reality mit der Oculus Rift

    Big Techday 8 (TNG Technology Consulting GmbH, tngtech.com)

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen…

    Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Gesture control and the new wave of 3D camera devices. Fiction or reality?

    IoT Developer Days

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.

    Veröffentlichung anzeigen
  • Gestensteuerung und die nächste Welle der 3D-Kameras

    Java Aktuell

    Innerhalb der letzten fünf Jahre gab es auf dem Gebiet der Natural User Interfaces (NUI) eine regelrechte Revolution, da eine Vielzahl neuer Geräte auf den Markt kam. Sie ermöglichen dem Nutzer z.B. durch Gesten oder Sprache eine direkte Interaktion mit einer Benutzeroberfläche. Doch inwieweit ist diese Art der Steuerung sowohl intuitiv als auch komfortabel?

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras

    OOP-Konferenz

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vorund Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel Perceptual Computing Gesture Cam und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface Metapher zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Fiction or reality? Gesture control and the new wave of 3-D camera devices

    Oracle JavaOne

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vor- und Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel RealSense Gesture Camera und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface-Metaphern zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User…

    Im Rahmen des Vortrags werden verschiedene 3D-Kameratechnologien, ihre Anbindung an Java und die Vor- und Nachteile der jeweiligen Technologie vorgestellt. Zu den verwendeten Systemen gehören die LeapMotion, die Intel RealSense Gesture Camera und die Microsoft Kinect v2. Der Vortrag beinhaltet darüber hinaus eine Flugdemonstration für die Parrot AR.Drone. Dabei werden unterschiedliche Interface-Metaphern zur freihändigen Kontrolle der Drohne gezeigt und die Auswirkung dieser auf die User Experience bewertet.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Fiktion oder Realität? Gestensteuerung und die nächste Welle der 3D-Kameras.

    Java Forum Stuttgart

    Native Interfaces haben in den letzten Jahren mit ihrem Einzug in die Welt der Spielkonsolen Ihren Siegeszug begonnen. Devices wie die WiiMote, die Kinect oder die Playstation-Kamera und Spiele wie "Just Dance" zeigen eindrucksvoll die Möglichkeit dieser neuartigen Steuerungsmethode.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Die TNG-PanoCam - eine 360°-Kamera mit Odroid und Raspberry Pi

    Invited Talk, TNG BigTechDay 7

    Die PanoCam ist eine prototypische 360° * 180° Panorama-Kamera, die auf Knopfdruck (ausgelöst durch eine Android-App) ein komplettes Panoramabild erstellt.

    Sie entstand während eines sog. Winter-Retreat der Firma TNG Technology Consulting GmbH, an dem sich eine Gruppe von acht Kollegen traf, um eine Panorama-Kamera mit Hardware "von der Stange" zu bauen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Perceptual Computing und die nächste Welle der Native Interface Devices

    Keynote Talk bei der Microsoft Student Technology Konferenz

    Keynote Talk bei der der Microsoft Student Technology Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Perceptual Computing und die nächste Welle der Native Interface Devices

    Javaland

    Invited Talk bei der Javaland Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Perceptual Computing und die nächste Welle der Native Interface Devices

    Javaland-Konferenz

    Invited Talk bei der Javaland Konferenz über moderne Gestensteuerung von physischen Objekten (wie z.B. der Parrot AR.Drone) und diversen Spielen.

    Andere Autor:innen
    Veröffentlichung anzeigen
  • Alles in einer Klasse - Der ConfigBuilder

    Java Magazin

    Im Artikel wird der TNG ConfigBuilder vorgestellt. Mit diesem lässt sich auf einfache Art aus verschiedenen Parametern wie Kommandozeilen-Argumenten, Datei-Einträgen, etc. eine Applikationskonfiguration aufbauen.

    Veröffentlichung anzeigen
  • Perceptual Computing controlled Parrot AR.Drone

    Intel Developer Forum

    Vorstellung eines Demonstrations-Showcase zum berührungslosen Steuern einer Drohne durch Gesten in San Francisco, USA (Moscone Center)

    Andere Autor:innen
    Veröffentlichung anzeigen

Kurse

  • IT architecture course

    -

  • Kanban Training

    -

  • Risk Management

    -

  • Scrum Training

    -

  • Visual Facilitation

    -

Projekte

  • Realtime Deepfakes

    –Heute

    Entwicklung von Echtzeit-Deepfakes, um die Öffentlichkeit über die Gefahren der Technologie aufzuklären.

    Andere Mitarbeiter:innen
    Projekt anzeigen
  • Blobby VR

    –Heute

    You are a blob playing volleyball in VR. Two players are playing against each other, each wearing a wireless VR headset. They see each other as blobs on the opposite sides of a volleyball field in this multiplayer VR game. When they move around or jump in the real world, their blob does the same. The goal of the game is to win in a volleyball match at this VR game.

    Andere Mitarbeiter:innen
    Projekt anzeigen
  • Style Transfer AI

    –Heute

    Darstellung der echten Welt als Kunstwerk in VR, als Polaroid und auch im Browser.

    Andere Mitarbeiter:innen
    Projekt anzeigen
  • Project Avatar

    Entwicklung eines gestengesteuerten Nao-Roboters auf Basis einer Oculus Rift und einer Microsoft Kinect-3D-Kamera

    Andere Mitarbeiter:innen
    Projekt anzeigen
  • Project AugmentedRift

    -

    Entwicklung einer 3D-Brille, mit deren Hilfe man die Welt durch die Augen eines Terminators sehen kann

    Andere Mitarbeiter:innen
    Projekt anzeigen

Auszeichnungen/Preise

  • Top Innovator 2016

    Intel Corporation

    Indem wir mit unseren Vorträgen fast 4000 Software-Entwickler erreicht haben, wurde uns die Auszeichnung Top Innovator 2016 verliehen.

  • Oracle JavaOne Rockstar

    Oracle JavaOne

    "Congratulations! Your scores for the sessions below made you a top speaker at JavaOne 2015. With this honor, you are now considered one of the JavaOne Rock Stars. We would like to send you a commemorative award as recognition.

    In addition to your award, we will highlight your name and session title on the JavaOne 2015 Rock Star page (https://www.oracle.com/javaone/rock-stars.html) and will add your name to the JavaOne Rock Star Wall of Fame page."

  • Top Innovator 2015

    Intel Corporation

    Indem wir mit unseren Vorträgen mehr als 1000 Software-Entwickler erreicht haben, wurde uns die Auszeichnung Top Innovator 2015 verliehen.

  • Perceptual Computing Pioneer Awards

    Intel Perceptual Computing World Challenge

    Gewinner des mit 1.000 Dollar dotierten Preises "Perceptual Computing Pioneer Awards" für besonders innovative und kreative Entwicklungen, die die Grenzen der Mensch-Maschine Interaktionen gesprengt und diese damit auf eine neue Ebene gehoben haben.

    Dieser Wettbewerb war eine weltweite Veranstaltung (Weltmeisterschaft), bei der 750 Teams international gegeneinander angetreten sind.

  • Most Innovative App

    Intel Perceptual Computing Hacknight

    Auszeichnung des mit 1.000 Euro dotierten Preises "Most Innovative App" durch die Firma Intel Coporation inklusive gleichzeitiger Qualifizierung zur Intel Perceptual Worldwide Challenge.

    Mit Hilfe des Intel Perceptual Computing SDK wurde während des Hackathon eine Software implementiert, mit der sich physische Objekte mit Hilfe von Gesten berührunglos steuern lassen.

Prüfungsergebnisse

  • Diplom-Informatiker

    Prüfungsergebnis: Overall: 1,1

    Abschlussnote: 1,1

    Einzelnoten:
    - Nebenfach 1,4
    - Praktische Informatik 1,0
    - Technische Informatik 1,0
    - Theoretische Informatik 1,0
    - Diplomarbeit 1,3

Sprachen

  • Deutsch

    Muttersprache oder zweisprachig

  • Englisch

    Verhandlungssicher

  • Französisch

    Grundkenntnisse

  • Spanisch

    Grundkenntnisse

Organisationen

  • Politische Partei

    Zweiter Vorsitzender

    –Heute
  • Crossfire LAN e.V.

    Vereinsvorsitzender

  • Müllinitiative Schrobenhausener Land e.V.

    Zweiter Vorsitzender

Erhaltene Empfehlungen

  • LinkedIn Mitglied

    LinkedIn Mitglied

1 Person hat Thomas Endres empfohlen

Jetzt anmelden und ansehen

Weitere Aktivitäten von Thomas Endres

Thomas Endres’ vollständiges Profil ansehen

  • Herausfinden, welche gemeinsamen Kontakte Sie haben
  • Sich vorstellen lassen
  • Thomas Endres direkt kontaktieren
Mitglied werden. um das vollständige Profil zu sehen

Weitere ähnliche Profile

Weitere Mitglieder namens Thomas Endres in Deutschland