OntoComputing UG

Wie Wissen Wirklich Wirkt

Wissenstechnologen

Wir suchen Verstärkung! Aktuell einen Geschäftsführenden.

Dr. Peter Schnupp (derzeit kommissarisch Geschäftsführer)

Dr. Peter Schnupp ist in Wiesbaden geboren und besuchte dort das hu­man­istische Gutenberg-Gymnasium bis zum Abitur. Anschließend studier­te er Physik in München, Göttingen und Moskau.

Als wissenschaftlicher Mitarbeiter des Max Planck-Instituts für Physik und Astrophysik war er an der Entwicklung einer der ersten deutschen Rechner nach dem Krieg, der G-3, sowie frühen nichtnumerischen Programmiersystemen und Programmiersprachen, hauptsächlich für die Quantenchemie, beteiligt. Er promovierte an der Ludwig Maximi­lian-Universität zum Dr. rer. nat.

Anschließend war er Teilhaber und Mitgründer verschiedener Softwarehäuser, darunter der Münchner Softlab GmbH und der InterFace-Gruppe. Er war maßgeblich an einer Reihe inno­vativer Softwareentwicklungen beteiligt. Dazu gehören die folgenden:

Die Automatische Telexauskunft der damaligen Deutschen Bundespost. Dies war ein von jedem Fernschreiber weltweit anzuwählender Volltext-Auskunftsdienst auf der Basis des Telexbuchs, der 1972 in Betrieb genommen wurde und etwa ein Vierteljahrhundert im wesentlichen unverändert arbeitete, bis das Telex-Netz durch modernere Netze verdrängt wurde.

HALORD, ein frühes, interaktives Betriebssystem zur tabellengesteuerten, vollautomatischen Abwicklung komplexer Betriebsabläufe (heute meist als work flow bezeichnet).

Das erste, interaktive Programmiersystem PET/Maestro auf der Basis eines frühen Philips-Datenerfassungssystems. Auch dieses System wurde etwa 25 Jahre lang weiter­entwickelt und weltweit erfolgreich vermarktet.

HIT, ein interaktives Textsystem, das lange Jahre das erfolg­reichste europäische Unix-Produkt war. 80% derSinix-Rechner der Firma Siemens wurde mit diesem Textsystem aus­geliefert.

XTEXT, der erste WYSIWYG-Textsystem (What You See Is What You Get) auf Basis der frühen X-Windows-Implementierung des MIT. Das System diente unter anderem zur voll­automatischen Erstellung von Testberichten im Karosseriebau der Firma BMW (CATEK) und bei der Firma Kettner, Rosenheim, zur ebenfalls vollautomatischen, mehrsprachigen Erzeu­gung von Handbüchern für Verpackungsmaschinen aus der Maschinenbeschreibung im PPS-System sowie einer Text- und Bild-Datenbank.

IF-Prolog, die weltweit erfolgreichste Implementierung der KI-Sprache Prolog. Diese war unter anderem in Japan die Referenzimplementierung für das 5th Generation Project Mitte der 80er Jahre. In ihm wurde unter anderem in Deutschland das Netz zur interaktiven Kon­figuration von Nebenstellen-Telefonanlagen in den Telefon-Boutiquen der Deutschen Bundespost und in Japan die wissensbasierte Steuerung der Schild-Vortriebsanlagen für den U-Bahn-Bau in Tokyo implementiert.

Dr. Schnupp ist Fachautor von über 100 Fachaufsätzen und 15 Fachbüchern aus verschiedenen Gebieten der Informatik, darunter „Rechnernetze“ (de Gruyter, Berlin, 1978), das erste deutschsprachige Buch über das damals noch ARPA-Net genannte Internet. Er war lange Jahre Chairman des German Chapter of the ACM, des weltweit größten Fachverbands von DV-Exper­ten, und bis zum Erreichen der Altersgrenze Vereidigter Sachverständiger für Software­techno­logie und Technik der Softwareerstellung bei der IHK Passau.

 

Dr. Irene Teich – Hauptengagement für die Konrad Zuse Akademie

Dr. Irene Teich ist in München geboren und besuchte dort den naturwissenschaftlichen Zweig des Thomas Mann Gymnasiums bis zum Abitur. Anschließend studierte sie Physik in München und Betriebs­wirtschaftslehre in Erlangen-Nürnberg. Dort spezialisierte sie sich auf Wirt­schafts­informatik und Logistik. Untersuchungen zur Lernenden Organisation führten zum Dr. rer. pol. Parallel hatte Frau Dr. Teich ein Jahr die organisatorische Leitung des Lehrstuhls inne.

Anschließend war sie Inhaberin der Dr. Irene Teich GmbH – Institut für Lernende Organisation und bearbeitete zahlreiche Projekte, unter anderen die Folgenden:

  • Konzept eines webbasierten Logistik-Lernsystems.
  • Planung des Binnenhafens Vukovar.
  • Mehrfach Einführung eines Total Quality Management Systems.
  • Mehrfach Konzeption von Logistik-Systemen.
  • Herausgeberschaft von Loseblattwerken „Materialwirtschaft und Logistik in der Praxis“ sowie „Praxishandbuch Transport“.

Außerdem schrieb sie 7 Bücher sowie Veröffentlichungen in Loseblattwerken und Magazinen und hielt zahlreiche Vorträge vor Fachpublikum. Darunter: „Der richtige Weg zur Softwareauswahl – Lastenheft, Pflichtenheft, Compliance, Erfolgskontrolle“, erschienen im Springer Verlag 2008. Daran schloss sich das Engagement als vertretungsweise Professorin für Grundlagen Informatik: Wissensmanagement in Görlitz. Parallel übernimmt sie immer wieder Lehraufträge an Hochschulen.

Die Beteiligten bringen ein:

Aufbereitung der Inhalte und Methoden der Scholastischen Dialektik (Vexillum, Arbor Porphyriana, Occams Razor, Occams Innere Rede …) für die Generierung, Strukturierung und Qualitätssicherung von Ontologien und Kontext(ontologi)en sowie die manuelle und dv-gestützte Schaffung nicht­numerischer Algorithmen zur Erzeugung optimaler Bedingungs- und Begründungslisten, Ersatz von Kompromiss- durch Konsenslösungen sowie für die Generierung von Dokumenten aller Art.

Die Erweiterung des Arborisierungs-Algorithmus zum Finden konsensfähiger Problemlösungen (Arbor Porphyriana) durch Parametrisierung der Aussagen und Unifizierung der Variablen (Resolution entsprechend einem Prolog-Interpreter).

Die Nutzung von Polyas Plausibilitätstheorie zur Beseitigung der in der klassischen Scholastischen Dialektik inhärenten Inkonsistenz zwischen der Nutzung formaler Logik als Basis praktisch aller Algorithmen und Methoden sowie der ebenfalls als grundlegend angesehenen Sokratischen Dichotomie zwischen Wahrheit und Gewißheit und – insbesondere – zur Abbildung der formalen Logik auf eine wahrscheinlichkeitstheoretisch berechenbare Algebra der Gewißheiten. Die letztere begründet einerseits die klassischen Methoden und Algorithmen und bewahrt andererseits auch ungeübte vor Fehlschlüssen bei der Bewertung von formallogischen Ableitungen im Gegensatz zu den zuweilen gänzlich anderen, plausibilitätstheoretisch berechneten oder abgeschätzten Äqui­valenten.

Die auf der von Dr. Teich entwickelten und formalisierten Methode PlanMan bzw. ChangeMan aufbauenden und in die Wissenstechnologie eingebundenen Methoden und Werkzeuge für Problemlösungen, zur Entscheidungsvorbereitung sowie zum Treffen von Entscheidungen.

Die Methodensammlung von Dr. Teich sowie ihre Forschungsarbeiten zu Lernen, Wissen (von Individuen, Gruppen, Teams und Organisationen) und Wissensmanagement.

Der Begriff Kontext für ontologieartige Sub-Strukturen und –Architekturen sowie deren auf OntoManager, dem OntoCompiler sowie auf Recherchesystemen wie inter:gator beruhende, automatische oder halbautomatische Generierung.

Der Begriff Kontextalgebra für die logisch und/oder mengentheoretisch begründete Bearbeitung und Manipulation dieser Kontexte sowie die bereits existierenden oder noch zu schaffenden Softwareprodukte zur Implementierung und Nutzung von Kontextalgebren.

Nutzung und Weiterentwicklung einiger von der AviX OmniComputing Ltd., Oxford, übernommenen Softwareprodukte wie OmniPresenter, OmniManager etc. in Abstimmung mit dem gegenwärtigen Eigentümer aller kommerziellen Rechte an ihnen, der OntoComputing UG.

 

Leave a Reply