Startseite OZ
Volltextsuche über das Angebot:

Besser als der Mensch

Künstliche Intelligenz wird alltagstauglich Besser als der Mensch

Künstliche Intelligenz ist auf dem Sprung ins echte Leben: Algorithmen lösen heute Computerprobleme, suchen Tumoren und malen Bilder. Und sie lernen ständig dazu. Schneller als Menschen. Die Technologie schickt sich an, unser Leben zu verändern – und uns womöglich zu überflügeln. Ein Laborbesuch.

Voriger Artikel
Einfach mal klingeln
Nächster Artikel
Der Neonazi neben mir

Künstliche Intelligenz kann als Versuch verstanden werden, Maschinen wie Menschen denken zu lassen. Bei sogenannten Deep Learning werden künstliche neuronale Netze miteinander verschaltet. Deep Learning hat die Leistungsfähigkeit von KI-Systemen radikal verbessert.

Quelle: Stefan Hoch

Erik Pfannmöller hat sich selbst abgeschafft. Und der 31-Jährige sieht damit sehr zufrieden aus. Fred heißt der Neue und Fred soll jetzt das beantworten, wofür Pfannmöller sonst immer nervige Anrufe bekam. Fred ist ein Computerprogramm, das Computerprobleme löst. Eine Art Siri für Nerds eben. Pfannmöller kann Fred auf seinem Smartphone Textnachrichten schicken. Er holt sein Smartphone heraus und zeigt es. "Hi Erik. Schön, dass du wieder da bist", begrüßt ihn Fred. Pfannmöller tippt ein ausgedachtes Problem ein. Fred stellt ihm acht Fragen und schlägt dann eine Lösung vor. "Fred fragt ganz anders als ich: nicht intuitiv, sondern effizient", sagt Pfannmöller.

Seine Mission ist nicht weniger, als die Menschheit mithilfe von künstlicher Intelligenz von der Bürde der unerwarteten Computerprobleme zu befreien. Intelligenz? Ja, denn Fred lernt dazu. Beim ersten Kunden, der von einem Problem berichtete, brauchte Fred noch deutlich länger zur richtigen Lösung. Mit jeder Frage und jedem Kunden wird Fred besser. Er ist stets zu Diensten, rund um die Uhr, an nahezu jedem Fleck der Erde – Internetempfang vorausgesetzt.

Und: Fred bleibt im Gegensatz zu so manchem menschlichem Servicemitarbeiter stets freundlich. Und er gibt zu, auch das sei wichtig, sagt Pfannmöller, wenn er keine Ahnung hat. "Fred ist besser als Google, denn oft weiß ich ja bei einem Fehler gar nicht, wonach ich suchen muss", sagt Pfannmöller. Besonders sympathisch ist dieser künstliche Besserwisser Fred vielleicht nicht, aber eben sehr hilfreich. Gerade wird das Portal Fredknows.it noch getestet. Doch schon in wenigen Wochen soll das Angebot frei und kostenlos für alle im Netz verfügbar sein.

Erik Pfannmöller hasst Computerpannen. Deshalb hat er den Problemlöser-Algorithmus Fred geschaffen.

Erik Pfannmöller hasst Computerpannen. Deshalb hat er den Problemlöser-Algorithmus Fred geschaffen.

Quelle: Vicari

Erik Pfannmöller fuhr früher professionell Kanuslalom. Nach reiflicher Überlegung ist er ins Wettrennen um die künstliche Intelligenz eingestiegen. Und das Rennen ist heiß. Nicht nur im Silicon Valley, auch in einigen Berliner Start-ups wird an künstlicher Intelligenz geforscht. Der Besuch bei den jungen Unternehmen zeigt, wie die alte Idee der künstlichen Intelligenz gerade antritt, unser Leben zu verändern und den Traum von schlauen Maschinen Wirklichkeit werden zu lassen: Künstliche Intelligenzen sortieren Werkstücke in Fabriken, sie lösen Computerprobleme, sie spüren Tumoren auf. Und sie malen sogar Bilder, die aussehen, als wären Monet oder Michelangelo ihre Urheber.

Noch sind es nicht allzu viele Start-ups, die künstliche Intelligenz für marktreif halten. Aber die Handvoll Gründer, die sich in der Hauptstadt bislang der bahnbrechenden Technologie widmen, sind fest entschlossen ,sie für Software zu nutzen, die schlauer ist, als Computerprogramme nach herkömmlichen Maßstäben eigentlich sein können. Für Software, die sogar mehr weiß als wir. Software etwa, die von uns lernt, wie man Probleme löst, die an ihren Aufgaben wächst – und früher oder später ein effektiverer Problemlöser ist als die besten menschlichen Experten.

Noch ist nicht entschieden, wer die schlauste künstliche Intelligenz sein Eigen nennt. Spätestens seit das Computerprogramm AlphaGo im März den weltbesten Spieler des rund 2500 Jahre alten chinesischen Brettspiels Go vernichtend geschlagen hat, dürfte auch einer breiteren Öffentlichkeit bewusst geworden sein, welch stupende Fähigkeiten Computer inzwischen haben. Es ist kein Zufall, dass hinter dem Erfolg von AlphaGo die Google-Tochter DeepMind steckt. Technologiekonzerne wie Google, Facebook und Apple kaufen fast wöchentlich Künstliche-Intelligenz-Spezialisten auf, um die eigenen Konzerne für die Zukunft zu rüsten.

Zweithirn zu vermieten

Der Unternehmer Christian Thurau hat das Passwort für sein Zweithirn vergessen. Und so sitzt er jetzt in einem kleinen Café in Berlin-Kreuzberg, kaut ein Stück Bananenbrot, tippt auf seinem Smartphone und versucht, sich an das Passwort zu erinnern. "Mist! Einem Computer wäre das jetzt nicht passiert", schimpft er. Thurau ist Gründer des Start-ups Twenty Billion Neurons. Sein Geschäft: Er vermietet sein künstliches Zweithirn, das er Cortex nennt, an Unternehmen.

Wer das Passwort kennt, kann ein sogenanntes neuronales Netz nutzen: ein Gebilde aus künstlichen Neuronen, das Dinge lernt, ähnlich, wie es Menschen tun. Daher kommt auch der Name des Unternehmens: Er ist abgeleitet von den 20 Milliarden Nervenzellen in unserer Großhirnrinde. Thurau kann sein künstliches Neuronennetz trainieren, damit es Bilder erkennt, Texte übersetzt oder Fragen beantwortet. Doch gerade jetzt fehlt Thurau der Zugang. Und so bleibt ihm jetzt nur sein Ersthirn, um von der künstlichen Intelligenz zu erzählen.

"Wir haben keine Maschine, die alle Fragen beantworten kann. Aber wir haben eine, die sehr gut ist in Mustererkennung", sagt Thurau. Und Muster gibt es praktisch überall: ob auf Werkteilen oder in Roboterbewegungen. Thurau kommt aus der Forschung, hat zuvor beim Fraunhofer-Institut gearbeitet. "Ein Fertigungsroboter könnte dank Mustererkennung lernen, sich selbst einzustellen", sagt Thurau, "oder eine Kamera erkennt Lackschäden auf Autotüren."

Christian Thurau hat sein neuronales Netz auf Bilderkennung trainiert. Hunde klappen besonders gut.

Christian Thurau hat sein neuronales Netz auf Bilderkennung trainiert. Hunde klappen besonders gut.

Quelle: Vicari

Für jede Denkaufgabe, die mithilfe von Thuraus Zweithirn womöglich dazu beiträgt, ein technisches Problem zu lösen oder die Fertigung effizienter zu machen, zahlt der Kunde einen kleinen Betrag. Ein offenbar rentables Geschäftsmodell, denn selbst der Großkonzern IBM vermietet die Intelligenz seines Supercomputers Watson bereits erfolgreich.

Weil neuronale Netze wie Thuraus Zweithirn in ihrer Funktionsweise mit den Nervenzellen des menschlichen Gehirns verwandt sind, müssen sie nicht umständlich programmiert werden. Sie werden trainiert, wie man Kinder unterrichten würde: mit möglichst vielen unterschiedlichen Beispielen, die ein zugrunde liegendes Prinzip erkennen lassen. Um etwa den Buchstaben "A" möglichst zuverlässig identifizieren zu können, würde das neuronale Netz mit unterschiedlichen Erscheinungsformen des "A" gefüttert, etwa in Handschrift, unsauber gedruckt, gefettet oder auf dem Kopf stehend.

Derart, wie ein Kind teils angeleitet, teils selbstständig lernt, Buchstaben und Zahlen zu unterscheiden, lernen die künstlichen Netze zum Beispiel zunächst, einen Kaffeefleck von einem Buchstaben zu unterscheiden und später ein "A" von einem "Z" – und das, ohne dass der Lehrer ständig alle Einzelheiten erklären müsste.

Lernen in mehreren Durchläufen

Der bei heutigen künstlichen Intelligenzen praktizierte Ansatz des sogenannten Deep Learning schichtet mehrere neuronale Netze übereinander. Je mehr solcher Netze miteinander verschaltet sind, desto komplexer sind die Zusammenhänge, die sich die künstliche Intelligenz erschließen kann.

Die Gesichtserkennung etwa verdankt die rasanten Fortschritte, die sie in den vergangenen Jahren erzielt hat, vor allem dem Deep Learning, das, vereinfacht beschrieben, so funktioniert: In der ersten Schicht lernt das System die Erkennung von Hell-Dunkel-Kontrasten, in der zweiten Schicht die Identifizierung von Kanten und einfachen Formen, in der dritten Schicht macht es sich komplexere Formen zu eigen, in der vierten Schicht lernt es schließlich, welche dieser Formen kennzeichnend für Gesichter sind.

Die Idee, Maschinen wie Menschen denken zu lassen, existiert schon lange. Das Konzept der neuronalen Netze hatten Warren McCulloch und Walter Pitts 1943 an der Universität Chicago vorgestellt. Doch die Versuche, einen intelligenten Computer zu entwickeln, waren zunächst vor allem eins: frustrierend. Erst das Internet brachte die riesigen digitalen Datenmengen, um künstliche Intelligenzen ausreichend füttern zu können – und erst das anbrechende 21. Jahrhundert die massive Rechenpower, die erforderlich ist, um diese Datenflut vernünftig auswerten zu können.

Bei sogenannten Deep Learning werden künstliche neuronale Netze miteinander verschaltet. Sie bearbeiten ein Problem auf mehreren Ebenen und gehen ihm so buchstäblich auf den Grund.

Bei sogenannten Deep Learning werden künstliche neuronale Netze miteinander verschaltet. Sie bearbeiten ein Problem auf mehreren Ebenen und gehen ihm so buchstäblich auf den Grund.

Quelle: Stefan Hoch

Mehr als 70 Jahre nach ihrer Erfindung erwachen neuronale Netze nun so richtig zum Leben. Sie sollen nun erledigen, woran gewöhnliche Computerprogramme lange scheiterten. Aufgaben, die, obwohl sie Menschen ohne besondere Anstrengung erledigen, für einen Computer extrem anspruchsvoll sind: Gesichter erkennen und Sprache verstehen etwa.

Thurau ist jetzt doch ins Büro gegangen, ein kleiner Raum in einer Fabriketage voller Start-ups. Jetzt kann er zeigen, was sein Zweithirn kann. Eines der Netze von Cortex ist darauf geschult, auf Fotos Katzen von Hunden zu unterscheiden. Schiebt man ein Bild mit einem Hund darauf, erkennt es die Rasse: "Entlebucher Sennenhund", meldet das Kunsthirn. Das Faszinierende: Das durch Abermillionen Hundebilder präparierte neuronale Netz kann sehr leicht auch auf andere Dinge trainiert werden, zum Beispiel auf Nahrungsmittel. "Da nimmt man einfach die letzte Schicht des Netzes und trainiert die neu", sagt Thurau so lässig, als funktioniere Intelligenz wie irgendein Bausatz.

Zu 0,9 Prozent ein Kürbis

Er sucht bei Google nach dem Bild eines Hamburgers, mit dem er sein System füttert. Das gibt seinen Befund kurz darauf in Wahrscheinlichkeiten aus: Zu 65 Prozent sicher sei auf dem Foto ein Hamburger zu sehen, meint Cortex, zu 31 Prozent Pasta, zu 2 Prozent eine Pizza und nur zu 0,9 Prozent ein Kürbis. Thurau nickt zufrieden. "Wahrscheinlich hat er die Pommes für Nudeln gehalten", sagt er. Als Nächstes lädt er die Szene aus einem Fußballspiel hoch. Das System ist sich zu 87 Prozent sicher, dass es sich um Fußball handelt. Nur die Teams kann es noch nicht erkennen. "Aber das kommt mit ein wenig Training auch noch", ist sich Thurau sicher.

Die Technologie der Berliner Unternehmer wird die Art verändern, wie wir mit Maschinen umgehen. Noch vor wenigen Jahren war so eine Intelligenzleistung undenkbar. Jetzt läuft sie auf dem Smartphone und könnte die Sprachassistenten Siri (Apple) und Cortana (Windows) schon bald wie tumbe Hinterwäldler aussehen lassen, sofern sie nicht selbst ein gehöriges Intelligenz-Update bekommen. 2,5 Millionen Euro hat Thurau als Startkapital von einem amerikanischen Investor bekommen. Er glaubt nicht daran, dass künstliche Intelligenzen den Menschen abschaffen werden. Aber er ist überzeugt davon, dass intelligente Assistenzsysteme unser Leben besser machen werden.

Ein Computer als Krebsspezialist

Während das Zweithirn von Christian Thurau zu einer Art Allzweckintelligenz trainiert wird, fokussieren sich andere Start-ups auf die Lösung hochspezialisierter Aufgaben. So wie Heuro Labs, das im medizinischen Bereich reüssieren will. Die Patientin, 28 Jahre alt, hat keine Kinder, ist Vegetarierin und wiegt 74 Kilogramm, so steht es auf dem Bildschirm. Sie hat einen Tumor in der Brust. Das zeigt der gelbe Rahmen um einen weißen Fleck auf dem Röntgenbild, das auf dem Bildschirm von Mohamed Sayed zu sehen ist. Sein Algorithmus hat den weißen Punkt als Tumor erkannt und markiert. Der 40-Jährige hat im Silicon Valley und lange bei Nokia gearbeitet, bevor er seinen cleveren Hilfsdoktor baute.

Die Technologie dahinter ist die gleiche, die auch Kürbisse von Fußbällen unterscheiden kann. Nur dass Sayeds App CogniHealth Radiologen helfen soll, Tumoren besser zu identifizieren. Gefüttert haben sie die App dafür mit Hunderten Aufnahmen von Tumoren. "Es waren wirklich nicht viele. Das ist die Stärke unseres Systems. Es lernt schnell, sehr schnell", sagt Sayed und zögert, als ob er abwägen würde, wie viel er versprechen kann. Dann fährt er fort: "Wahrscheinlich lernt es schneller als jedes andere System der Welt." Der Arzt kann die Bestimmung des Tumors korrigieren. CogniHealth lernt von ihm und den Korrekturen seiner Kollegen.

Auf Sayeds T-Shirt ist ein Löwe gedruckt. Wenn er lebhaft mit den Armen gestikulierend seine Technologie erklärt, rollt der Löwe bedrohlich mit den Augen. "Wir sollten keine Angst haben, sondern die Chancen für die Gesellschaft begreifen", meint Sayed. "Wir sagen nicht, unser System kann es besser. Aber es lernt vom Arzt. Oder vom ganzen Krankenhaus." Sayed hofft, dass das Wissen zur Tumorerkennung so nicht mehr eine Kompetenz bestens ausgebildeter Krebsspezialisten bleibt, sondern auf der ganzen Welt verfügbar wird – eben auch dort, wo es keine gut ausgebildeten Onkologen gibt.

Natürlich ist es auch eine ethische Frage, ob man, von wirtschaftlichen Erwägungen getrieben, einer intransparenten Computerintelligenz unsere Gesundheit anvertraut. Sayed sagt dazu: "Wir wollen kein Geld einsparen. Wir wollen Ärzte besser machen."

Die Antike stand Pate: Mittels künstlicher Intelligenz lernt der Wizart-Algorithmus, jeden beliebigen Kunststil zu imitieren.

Die Antike stand Pate: Mittels künstlicher Intelligenz lernt der Wizart-Algorithmus, jeden beliebigen Kunststil zu imitieren. Für dieses Beispiel standen die frühchristlichen Mosaiken in Ravenna Pate.

Quelle: Wizart

"Wir haben gerade mehrere Michelangelos in der Pipeline", sagt Daniel Seiler. Mit denen füttert der 25-Jährige ein neuronales Netz, das beweist, dass künstliche Intelligenz nicht nur Bilder erkennen, sondern auch schaffen kann. Mit den zwei Freunden Tim Suchanek und Alexander Tonn hat er das Start-up Wizart gegründet. Sein Studium hat er dafür vorerst auf Eis gelegt. In der Wizart-App kann man eigene Fotos verwandeln. In Sekunden kann man sie in verschiedenen Kunststilen neu malen lassen: Das eigene Bild sieht aus wie von Picasso geschaffen, von Kandinsky oder eben Michelangelo.

Möglich machen die vollautomatischen Kunstwerke ebenfalls neuronale Netze. Sie abstrahieren die Bilder nach bestimmten Kriterien, ganz ähnlich, wie das Gehirn eines menschlichen Malers Motive in seine gestalterisch relevanten Elemente zerlegt und daraus eine Neuschöpfung, eine künstlerische Interpretation des Bildgegenstandes erschafft.

Picasso für die Hosentasche

Doch die drei Berliner hatten Pech: Auch russische Entwickler hatten die Idee und kamen den dreien mit der erfolgreiche App Prisma zuvor, die Ähnliches kann. Dabei sind Seiler und seine Mitstreiter überzeugt, dass ihre App Vorteile hat. Nicht nur, weil sie schneller malt. Die Wizart-App speichert die Bilder nicht dauerhaft und verkauft die Daten nicht, sagt Tim Suchanek. "Und den Ölmalereieffekt, den können nur wir", ergänzt er nicht ohne Stolz.

Die App ist kostenlos. Auf über 200 Stile haben sie ihren Algorithmen-Künstler schon trainiert, aber nur einige davon sind in der App verfügbar. Um einen neuen Stil zu lernen, braucht der Algorithmus jeweils einige Stunden. Wizart malt anders als ein menschlicher Maler: "Ein Mensch fängt an einer Stelle an und entwickelt das Bild", sagt Seiler. "Der Computer trägt dagegen erst eine dünne Schicht auf, dann die nächste, dann wieder die nächste. Bis zu 300-mal geht das so."

Nicht immer ist vorhersehbar, wie der Algorithmus lernt. "Eine dieser Überraschungen ist zum Beispiel der Untoten-Effekt", sagt Suchanek. "Der lässt Leute wie Zombies aussehen, dabei sollte er sie ursprünglich schöner machen." Noch imitieren die Menschen am liebsten berühmte Künstler. Seiler findet jedoch etwas anderes viel spannender: "Wie sieht die eigene Ästhetik einer künstlichen Intelligenz aus?", fragt er sich.

Daniel Seiler (l.) und Tim Suchanek hauchen künstlicher Intelligenz künstlerische Fähigkeiten ein.

Daniel Seiler (l.) und Tim Suchanek hauchen künstlicher Intelligenz künstlerische Fähigkeiten ein.

Quelle: Vicari

Ob der künstliche PC-Problemlöser Fred, der Bildsortierer Cortex, der Computerarzt CogniHealth oder der Maler Wizart: Es sind nur vier Beispiele von künstlichen Intelligenzen, die noch vor wenigen Jahren nach Science Fiction klangen und inzwischen Wirklichkeit sind. Sie sind auf dem Sprung in unseren Alltag. Dann müssen Siris neue Streberfreunde in der Welt beweisen, ob sie Menschen mit ihren Fähigkeiten unterstützen oder sie womöglich übertreffen und ersetzen können.

Fest steht: Wir werden nicht umhinkommen, uns mit den intelligenten Maschinen auseinandersetzen zu müssen. Für Mohamend Sayed, den Entwickler der Tumorerkennung, ist diese Zukunft der intelligenten Maschinen bereits angebrochen: "Sie sind längst da. Jetzt müssen wir lernen mit ihnen umzugehen."

Von Jakob Vicari

Interview mit Prof. Wolfgang Wahlster
Prof. Wolfgang Wahlster, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz.

Prof. Wolfgang Wahlster, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz.

Quelle: Jim Rakete

Künstliche Intelligenz (KI) macht rasante Fortschritte. Halten Sie es für möglich, dass intelligente Maschinen irgendwann selbstständig werden und den Menschen überflügeln, womöglich sogar unterjochen?
Ich halte derartige Visionen, wie sie etwa die Transhumanisten propagieren, vor allem für Science-Fiction à la Perry Rhodan. Zum einen, weil die gegenwärtige Forschung nicht darauf zielt, eine derartige Superintelligenz zu schaffen, sondern Systeme, die menschliche Fähigkeiten unterstützen oder komplementär ergänzen. Zum anderen, weil ich die technische Umsetzung eines solchen Vorhabens, sollte es denn jemand verfolgen, ausgehend vom heutigen Forschungsstand in den nächsten 50 Jahren für nicht erreichbar halte. Allerdings: Es ist mir kein Naturgesetz bekannt, welches das Entstehen einer solchen Superintelligenz prinzipiell ausschließt. Als Naturwissenschaftler würde ich die Möglichkeit eines solchen Szenarios also auch nicht für vollends unmöglich, aber doch für extrem unwahrscheinlich halten – und selbstverständlich auch für nicht erstrebenswert.

Künstliche Intelligenz vollbringt Erstaunliches, tut sich hingegen bei scheinbar einfachen Dingen wie etwa der Bilderkennung schwer. Wieso?
Das ist ein Paradoxon: Was für den Menschen schwer ist, fällt der künstlichen Intelligenz leicht – und umgekehrt. Leistungen, die wir als außergewöhnlich erachten – also etwa einen Schach- oder Go-Weltmeister zu besiegen – erledigt künstliche Intelligenz inzwischen besser als wir. Dagegen ist es für KI-Systeme noch schwer, ein Gesicht wiederzuerkennen, einen Ball zu fangen oder ein Kind zu trösten. Es sind also nicht so sehr intellektuelle Höchstleistungen, welche die eigentliche Herausforderung darstellen. Es ist die Alltagsintelligenz, die sehr viel mit Erfahrung und unserer Evolution zu tun hat.

Künstliche Intelligenz ist ein machtvolles Werkzeug: Sie kann ein Segen sein, aber auch eine Gefahr, wenn sie in die falschen Hände gerät. Brauchen wir eine Maschinenethik?
Ja. Daran wird auch schon gearbeitet, etwa im Fachforum "Autonome Systeme" als Teil des Hightech-Forums der Bundesregierung. Ich plädiere für moralische Leitplanken, welche bei der Realisierung von KI-Systemen zu beachten sind, wenn es um essenzielle Werte geht, etwa die Unversehrtheit von Leib und Leben. Ein starres, fest in der KI-Software implementiertes Moralsystem ist dabei wenig zielführend. Künstliche Intelligenz entwickelt sich durch maschinelles Lernen ständig weiter, sodass es die Pflicht der Entwickler und Betreiber von KI-Systemen ist, neben den vielen Vorteilen der Systeme auch deren mögliche Risiken zu analysieren und offenzulegen.

Wie sehr wird sich der Alltag durch künstliche Intelligenz in näherer Zukunft verändern?
Es wird gewaltige Veränderungen geben. Ursprünglich konnten Maschinen Daten nur digital erfassen, speichern und übermitteln, heute können sie Texte verstehen und Bilder interpretieren. Daraus ergeben sich für die künstlichen Intelligenz neue Einsatzfelder. Ich kann mir etwa vorstellen, dass in naher Zukunft einfache Sachbearbeitertätigkeiten nicht mehr von Menschen gemacht werden müssen.

Also wird künstliche Intelligenz den Arbeitsmarkt umkrempeln?
Gut möglich – aber das muss keineswegs zum Nachteil der Menschen sein. Es ist ja kein Zufall, dass die Länder mit dem höchsten Technisierungsgrad auch die höchsten Beschäftigungsquoten haben. Während auf den unteren Entscheidungsebenen in Behörden, im Bank- oder Versicherungswesen künftig Arbeitsplätze wegfallen könnten, wird künstliche Intelligenz dazu beitragen, dass neue Arbeitsplätze in innovativen Berufsfeldern wie der Datenanalytik und der personalisierten Dienstleistungen entstehen. Wenn Daten nicht nur von Maschinen lesbar sind, sondern von ihnen auch interpretiert und verstanden werden können, werden viele Branchen durch diese zweite Welle der Digitalisierung revolutioniert.

Interview von Daniel Behrendt

Voriger Artikel
Nächster Artikel
Mehr aus Top-Thema
MV-jobs.de

Die Jobsuchmaschine MV-jobs.de bietet über 19.000 Stellenangebote und Jobs in und um die Hansestadt Rostock. Ob Ausbildung, Arbeitsplätze für Fachkräfte, Quereinsteiger oder Führungsposition - der MV-Jobmarkt bietet Stellenanzeigen für alle Qualifikationen. mehr