Zurück zur letzten Seite                    Zur Startseite des Verlages

Sitzungsberichte der Leibniz-Sozietät, Band 122 (2015)

 

Technologiewandel in der Wissenschaft – qualitative und quantitative Veränderungen.

6. Symposium des Arbeitskreises "Allgemeine Technologie" der Leibniz-Sozietät der Wissenschaften zu Berlin und des Instituts für Technikfolgenabschätzung und Systemanalyse des Karlsruher Instituts für Technologie am 10. Oktober 2014 in Berlin

 

 

 

 

lieferbar

 

 => Lieferanfrage beim Verlag

[= Sitzungsberichte der Leibniz-Sozietät der Wissenschaften, Bd. 122], 2015, 227 S., ISBN 978-3-86464-092-6, 19,80 EUR

 

 

Zurück zur letzten Seite                    Zur Startseite des Verlages

 

Inhaltsverzeichnis

 

Gerhard Banse, Ernst-Otto Reher: Einführung  5

Gerhard Banse: Technikverständnis – Eine unendliche Geschichte... 19

Lutz-Günther Fleischer: Technologie – techné und epistémé 35

Gerhard Banse, Ernst-Otto Reher: Technologiewandel in der Wissensgesellschaft – qualitative und quantitative Veränderungen 69

Christian Kohlert: Traditionelle Kalandertechnologie für High-Tech-Produkte 95

Wolfgang Fratzscher: Energietechnik und Energiewende 105

Norbert Mertzsch, Ernst-Peter Jeremias: Entwicklungstendenzen in der Wärmeversorgung 125

Dieter Seeliger: Über einige qualitative und quantitative Fortschritte der praktischen Nutzung von Nanotechnologie bei der Energieumwandlung 133

Horst Goldhahn, Jens-Peter Majschak: Hocheffiziente Maschinensysteme für die individualisierte Massenproduktion 151

Peter Schwarz: Technologiewandel und Nachhaltigkeit beim Übergang von der Industrie- zur Wissensgesellschaft 159

Johannes Briesovsky: Technologische Prozessintensivierung durch resonante Pulsationen 169

Hans-Joachim Laabs: Ist der 3D-Drucker die „Dampfmaschine“ der digitalen Revolution oder eine überschätzte Innovation? 177

Hermann Grimmeiss: Die Verbindung von Wissenschaft und Gesellschaft – eine Voraussetzung zur Lösung des Europäischen Paradoxons I: Sicht des Wissenschaftlers 191

Bernd Junghans: Die Verbindung von Wissenschaft und Gesellschaft – eine Voraussetzung zur Lösung des Europäischen Paradoxons II: Sicht des Unternehmers 203

Ernst-Otto Reher, Gerhard Banse: Schlusswort und Ausblick 211


 

Aus der Einführung

 

Gerhard Banse und Ernst-Otto Reher gehen in ihrem das Symposium einleitenden Überblicksbeitrag auf den „Technologiewandel in der Wissensgesellschaft – qualitative und quantitative Veränderungen –“ ein. Dabei vertreten sie folgende Thesen:

- Die Quellen des Wohlstands im 21. Jh. werden im Wesentlichen durch Wissen (Können, Machen), Rohstoffe sowie Energien, die zu konvergenten Technologien und Metawissenschaften durch Inter- und Transdisziplinarität führen, bestimmt.

- Durch das erhöhte Potenzial an Wissenschaftlern und Ingenieuren wird ein Anstieg der gesamten technologischen Prozesse in der Qualität und Quantität erreicht, und zwar im gesamten Reproduktionsprozess. Es entsteht die „gläserne Anlage, Fabrik“ im produzierenden Bereich und im Dienstleistungsbereich.

- Dienstleistungstechnologien werden in der Zukunft weiter in der Beschäftigungsmenge der Werktätigen ansteigen (85%). Sie müssen in der Wissensgesellschaft weiter gefördert werden (Bildung, Studium, Arbeitsplätze, soziale Förderung u.v.m.).

- Viele Einzelwissenschaften orientieren (öffnen) sich auf (für) die Technologie und bilden die konvergenten Technologien (z.B. NBIC), um erfolgreich zu sein. Durch diese Technologien entstehen multifunktionale,

intelligente Produkte, z.B. Prothesen, Organe, Werkstoffstrukturen, Sensoren, Computer u.v.m.

- Der Übergang von der Industriegesellschaft zur Wissensgesellschaft berührt alle Lebensbereiche der Menschen und gestaltet die „gläserne Gesellschaft“. Für diese Gesellschaft bedarf es neuer rechtlicher und ethischer Restriktionen, wie die Handlungen der NSA und anderer Geheimdienste verdeutlicht haben.

Jede Technologie ist durch Ambivalenzen gekennzeichnet, die Chancen bieten, Gefahren bringen und Missbrauch ermöglichen.

Christian Kohlert stellt „Traditionelle Kalandertechnologie für High-Tech-Produkte“ vor. Das Kalandrieren von Papier und Kunststoffen ist eine alte Technologie, die sich im äußeren Schein nicht wesentlich entwickelt

hat. Beim genaueren Betrachten fällt einem dann aber doch unendlicher technischer Fortschritt in Maschine und Technologie auf. Der Beitrag zeigt anfangs die Kompetenz der Firma Klöckner Pentaplast als weltgrößter Hartfolienkalandrierer für diese Technologie.

Im weiteren wird die die damalige Entwicklung der Kalandertechnik und -technologie von den ersten mit Pferdekraft betriebenen Glättkalandern um 1800 über die Trennung in Gummi- und Kunststoffkalander um 1930 mit der Entwicklung der PVC-Verarbeitung und den nachfolgenden mechanischen Entwicklungen der Kalandertechnik (periphergebohrte Walzen, Roll-Bending und Walzenschrägverstellung) bis zu den ersten Berechnungsmodellen zur Optimierung von Bombage und Dickenverlauf vorgestellt. Der Übergang zur heutigen Zeit um den Jahrhundertwechsel war gekennzeichnet durch eine starke Entwicklung der Inline-Messtechnik sowie von Automatisierungslösungen von der Dosierung bis hin zur Wickeltechnik. Das Morgen der Kalandertechnik wird eine verstärkte Veredlung der Folienoberflächen inline im Herstellungsprozess über Oberflächenbehandlung (Plasma) und Oberflächenbeschichtungen mit Hilfe der Nanotechnologie mit sich bringen. Damit werden Folieneigenschaften erzeugt, die eigentlich dem Polymer gar nicht zuzuschreiben sind wie Leitfähigkeit, Bedruckbarkeit oder UV-Stabilität. Durch die stagnierende PVC-Folienproduktion in den westlichen Industriestaaten werden neue Produkte für die existierenden Kalander entwickelt wie WPC (Holz-Polymer-Verbunde) und andere biologisch basierende bzw. abbaubare Polymere. Die Nutzung der Nanotechnologie über Aufsprühen von Nanosolen eröffnet ungeahnte Anwendungsmöglichkeiten der Kalandriertechnologie von aktiven Oberflächen (antimikrobiell, antikorrosiv, aromatisch, ...) über intelligente Oberflächen (Zeitindikator, Temperatur-Zeit-Indikator, elektrisch leuchtend, ...) bis hin zu speziellen Effekten wie Lotus-Effekt oder Fälschungssicherheit. Damit wird gezeigt, dass die hochproduktive Kalandriertechnologie auch im 21. Jh. einen Platz als Folienherstellungsprozess beibehält.

„Energietechnik und Energiewende“ ist die Thematik von Wolfgang Fratzscher. In der Energiewende wird mit aus physikalischer und technischer Sicht unscharfen und unvollständigen Begriffen gearbeitet. Das hat

keine Konsequenzen, wenn der Nutzer trotz dieses Sachverhaltes die Begriffsinhalte richtig einordnen kann. Das ist aber bedenklich, wenn mit dieser Begriffswelt ökonomische und gar juristische Zusammenhänge abgeleitet und verfolgt werden. Das führt in der Energietechnik zur Verfolgung technisch unausgereifter Entwicklungen. So werden die mit der Energiewende zu verfolgenden Ziele durch überhöhte Kosten und durch eine Verminderung der Versorgungssicherheit gefährdet. Danach muss man sich wahrlich fragen, ob sich unsere technisch-technologische Umwelt noch in einer Wissensgesellschaft bewegt oder doch schon in einer Glaubensgesellschaft. Zu derartigen Problemen werden einige Anmerkungen, auch aus den bisherigen Erfahrungen heraus, im Vortrag gemacht.

Daran schließen sich Ausführungen von Norbert Mertzsch und Ernst-Peter Jeremias zu „Entwicklungstendenzen in der Wärmeversorgung“ an. In der Jahrtausende währenden Entwicklung der Menschheit konnte der Mensch bis zur Mitte des 18. Jh.s zur Wärmeversorgung nur auf Einkommensenergie zurückgreifen – den nachwachsenden Rohstoff Holz. In den letzten 250 Jahren wurde die Wärmeversorgung durch Vermögensenergie – Torf, Kohle, Öl, Gas – dominiert. In den letzten Jahren entwickelt sich der Trend wieder hin zur Einkommensenergie. Dabei werden neben den nachwachsenden Rohstoffen Holz, Stroh und Schilf, auch als Biogas, auch direkt solare Wärme und Elektroenergie aus Überschüssen der Nutzung von Wind- und Solarenergie genutzt. Darüber hinaus wird die Nutzung von Umweltwärme und Abwärme zunehmen. Da insbesondere das Angebot und der Bedarf an solarer Wärme nicht übereinstimmen, ist die Entwicklung von effektiven und ausreichend dimensionierten Wärmespeichern von entscheidender Bedeutung für die Marktdurchdringung. Um die zukünftige Wärmeversorgung sicherzustellen, sind die technologischen Entwicklungen zur Nutzung und Speicherung von Einkommensenergie in bestehende Fernwärmenetze einzubinden. Dazu sind komplexe Maßnahmen, wie die Absenkung der Rücklauftemperatur und der hydraulische Abgleich der Fernwärmenetze für viele Einspeisepunkte nötig. Die Entwicklungen für Nahwärmenetze werden in die gleiche Richtung gehen. Für Einzelwärmeversorgungen von Gebäuden, die heute üblicherweise mit dem Vermögensenergieträger Erdgas betrieben werden, wird die Einbindung von Solarwärme und Umweltwärme zunehmen. Bei Betrieb einer Photovoltaikanlage wird der Trend zur Nutzung von Überschüssen an Elektroenergie für die Wärmeversorgung, neben dem Betrieb von Batteriespeichern, gehen. Die bestmögliche Nutzung der Einkommensenergie bieten aber Nah- und Fernwärmenetze. Die rahmenrechtlichen Bedingungen sind für die Durchsetzung dieses technologischen Fortschritts im Elektroenergie- und Wärmemarkt von entscheidender Bedeutung.

Dieter Seeliger beschreibt einige „Qualitative und quantitative Fortschritte bei der praktischen Nutzung von Nanotechnologie in der Energieumwandlung“. Die rasante Entwicklung in den vergangenen Jahren, die bis in die Gegenwart reicht und voraussichtlich weiter anhalten wird, führte die Nanotechnologie in die erste Reihe der großen technologischen Entwicklungslinien, welche den Umbau zur Wissensgesellschaft prägen. Auch dieses Gebiet lässt sich nicht auf seine ökonomischen und technologischen Aspekte reduzieren, sondern betrifft neben interdisziplinärer Wissenschaft gleichermaßen Aspekte von Umwelt, Gesundheit, Bildung sowie Recht und greift damit in viele Bereiche der Gesellschaft ein. Es ist gekennzeichnet durch alle Merkmale von Ambivalenzen, wie sie bereits auf dem 4. Symposium des Arbeitskreises „Allgemeine Technologie“ für unterschiedliche Gebiete des technologischen Fortschritts herausgearbeitet wurden (vgl. Banse/Reher 2011). Eine physikalische Ursache für ihre besonderen technologischen Eigenschaften geht darauf zurück, dass die Nanotechnologie in Längenskalen vorstößt, bei denen Oberflächeneigenschaften gegenüber den Volumeneigenschaften von Festkörperstrukturen in den Vordergrund treten oder sogar dominieren. Dabei gewinnen spezifische quantenphysikalische und -chemische Effekte eine zunehmende Bedeutung, ebenso wie das bei der weiteren Miniaturisierung der Computertechnik der Fall ist. Neue Erkenntnisse der Quantenphysik und -chemie schlagen schnell um in neue technologische Prozesse mit weitreichenden praktischen Anwendungen – ein Merkmal der modernen Wissensgesellschaft. Der Zusammenhang zwischen Nanotechnologie und Energiewandel durch Übergang zu nachhaltigen und erneuerbaren Energiequellen wird Anhand von praktischen Anwendungen – für die Gebiete Wasserstoffspeicherung, Brennstoffzellen und Photovoltaik – beispielhaft beleuchtet, mit kurzer Charakterisierung deren Auswirkung auf andere Bereiche der Gesellschaft. Ergänzend werden auch potenzielle Anwendungsgebiete skizziert, die aus heutiger Sicht als visionär zu bezeichnen sind oder die sich noch in der Phase einer wissenschaftlichen Konsolidierung befinden – hierzu zählen die molekulare Nanotechnologie und Quantenreaktionen in nanoskaligen Festkörperstrukturen. Der Beitrag schließt mit dem Bezug zur Thematik des Symposiums, indem der Zusammenhang zwischen den Fortschritten bei der wissenschaftlichen Erkundung und praktischen Implementierung von Nanotechnologie als einem tragenden Element der Wissensgesellschaft und der künftigen Entwicklung der menschlichen Gesellschaft insgesamt hergestellt wird, insbesondere hinsichtlich des angestrebten Energiewandels, der Umweltverträglichkeit, Nachhaltigkeit durch Ökonomie der verfügbaren Rohstoffe und Ressourcen sowie der materiellen Absicherung der Bedürfnisse einer weltweit wachsenden Menschheit, inklusive ihres wachsenden Nahrungsmittel- und Energiebedarfs.

Mit dem Beitrag „Hoch effiziente Maschinensysteme für die individualisierte Massenproduktion“ von Horst Goldhahn und Jens-Peter Majschak wird der Energiebereich verlassen und zu Fertigungs- bzw. Produkttechnologien übergegangen, wobei zunächst Verarbeitungsmaschinen ins Zentrum der Darlegungen rücken. Verarbeitungsmaschinen stellen aus Natur- und Kunststoffen Massenbedarfsgüter für den täglichen Konsum mit hoher Produktivität her. Die Stellung von Verarbeitungsmaschinen in der Wertschöpfungskette führt insbesondere im Haupteinsatzgebiet der Lebensmittelverarbeitung und -verpackung dazu, dass sich in ihnen komplexe Stoff-, Energie- und Informationsströme kreuzen, weil Stoffe biogener Herkunft in mechatronischen Systemen effizient zu sicheren Produkten verarbeitet werden müssen. Der Trend zu individuell gestalteten Produkten führt zunehmend zur informationellen Verknüpfung von Bestell-, Produktions-, Auslieferungs- und Abrechnungsprozessen. Durch die breit gefächerten Eigenschaften der zu verarbeitenden Roh- und Hilfsstoffe und die komplexen innermaschinellen Verfahren sowie durch die hygienischen Anforderungen an das verkaufsfähige Endprodukt ergeben sich besondere Bedingungen für Steuerung, Informationsverarbeitung und Gestaltung. Mit der Entwicklung von Verarbeitungsmaschinen von genialen mechanischen Einzellösungen zu standardisierten hochflexiblen und hoch effizienten modularen Systemen haben sich die Anforderungen an die Entwickler, Methoden und Werkzeuge deutlich verändert. Die besonderen Herausforderungen der gegenwärtigen und zukünftigen Entwicklung liegen in einer neuen globalen Arbeitsteilung;

- neuen Möglichkeiten und Anforderungen bezüglich des Umgangs mit Ressourcen;

- individualisierter Massenproduktion: Flexibilität versus Effizienz;

- Produktsicherheit in volatilen Wertschöpfungsketten;

- grundlegend neuen Konzepten für die Mensch-Maschine-Interaktion versus Substitution menschlicher Bediener;

- neuen Methoden und Werkzeugen interdisziplinären Entwickelns;

- der Ausbildung interdisziplinär agierender Fachkräfte ohne Verlust wichtiger Kernkompetenzen.

 

Peter Schwarz analysiert den Zusammenhang von „Technologiewandel und Nachhaltigkeit beim Übergang von der Industrie- zur Wissensgesellschaft“. Dieser Übergang erfasst alle Bereiche des gesellschaftlichen Lebens – die Gesellschaft selbst, die Konsumenten, die Wirtschaft, die Technologie, die globalisierte Welt und die Umwelt –, hat eine hohe Veränderungskraft und ist durch Groß- oder Megatrends mit globaler Wirkung verbunden. Technologiewandel und Wissensmanagement spiegeln zum einen die Evolution des Menschen und zum anderen die Entwicklung der modernen Natur- und Technikwissenschaften wider. Der Technologiewandel ist sowohl eine Folge des wissenschaftlich-technischen Fortschritts wie dessen Motor und lässt sich auch als Natur- und Zeitproblem darstellen (Zusammenhang von Nachhaltigkeit und Technologiewandel). Der Begriff der Nachhaltigkeit ist trotz aller Probleme in seinem bzw. für seinen Gebrauch eine Orientierung für die laufende Diskussion. – Generell wird deutlich:

- Das 21. Jh. ist charakterisiert durch den Übergang der Industriegesellschaft zu der sich entwickelnden Wissensgesellschaft.

- Die Entwicklungsdynamik der Industriestaaten zu den Entwicklungs- und Schwellenländern unterscheidet sich stark.

- Technologiewandel und Wissensmanagement stehen im direkten Zusammenhang zur Evolution des Menschen und der Entwicklung der Natur- und Technikwissenschaften.

- Die Beachtung der Nachhaltigkeit ist eine Voraussetzung für eine dauerhafte Entwicklung der Menschheit.

In den folgenden zwei Beiträgen wird auf spezielle technische Entwicklungen eingegangen. Zunächst erläutert Johannes Briesovsky Möglichkeiten der „Technologischen Prozessintensivierung durch resonante Pulsationen“. Die Resonanzpulsationstechnik (RPT) ist ein radikal innovatives Prinzip für die Verbesserung verfahrenstechnischer Prozesse und Apparate im Sinne der Prozess-Intensivierung (PI). Das Fluid bzw. der fluidisierbare Stoff (z.B. Pulver) werden als Fluidsäule zu Eigenschwingungen (Resonanz) im Infraschallfrequenzbereich erregt. Die Infraschallwellen verbreiten sich mit Schallgeschwindigkeit als Druck- und Geschwindigkeitsänderung durch das Fluid.

Diese und andere Effekte (Annular-Effekt) bewirken radikale Prozessverbesserungen. Die RPT wurde erstmalig von Baird 1965 (GB 1 106 453) beschrieben und von Ostrovsky, Sankt Petersburg, Russland, insbesondere für Pulver entwickelt. Da die Pulsation ohne mechanisch angetriebene Ein- und Anbauten (Rührer, Vibratoren, Rüttler, Schüttler) erreicht wird, erfolgt eine medienschonende und energiesparende Fahrweise. Einsatzbereiche sind vorzugsweise Flüssigphasenprozesse mit Grenzflächen und Wänden sowie die Pulverbehandlung. Beispielhaft wird über die Prozesse der Flüssigkeitsbelüftung, der Pulvertrocknung und der Querstromfiltration berichtet. Bei der Belüftung von Reinwasser wurden im Vergleich zur Blasensäulenbelüftung Steigerungen des Luftsauerstoffeintragskoeffizienten von bis zu 1.000% erreicht, was auf der Verkleinerung und der Vergleichmäßigung der Blasengrößen sowie der Grenzschichterneuerung beruht. Bei der Bleicherde-Trocknung in der Wirbelschicht wurde ein höherer Wärmeübergangskoeffizient zur Wand bei einem Lufteintrag von 10% der üblichen Wirbelschicht festgestellt. Bei der Querstromfiltration von Bier wurde ein hoher Flux erreicht. Dabei wurde die Überströmgeschwindigkeit von ca. 5 m/s auf 0,1 m/s gesenkt.

Danach geht Hans-Joachim Laabs der Frage nach: „Ist der 3D-Drucker die „Dampfmaschine“ der digitalen Revolution oder eine überschätzte Innovation?“ Vor 30 Jahren erfand Chuck Hull den 3D-Drucker in der Technologie der Stereolithografie. Bald kamen andere Technologien hinzu. Momentan werden drei Gruppen unterschieden: Gedruckt wird (1) durch das Auftragen einer Schmelze, die sofort erstarrt, (2) durch das Auftragen von Flüssigkeiten, die zum Erstarren gebracht werden und (3) durch das Sintern von Pulvern. Es gibt darüber hinaus Erweiterungen und Kombinationen. Die Palette der gedruckten Materialien wird immer größer, starrer und elastischer Kunststoff, Metalle wie Edelstahl, Keramik und Beton, Holz und Schokolade gehören auf jeden Fall schon dazu. Das 3D-Drucken hat tatsächlich etwas mit dem Drucken zu tun, wie wir es bisher kennen. Statt Tinte oder Toner werden nun voluminösere Materialien mit unterschiedlichen Gebrauchseigenschaften aufgetragen. Der Druckauftrag selbst kommt aus dem Computerprogramm mit der technischen Zeichnung. Ist die erste xy-Ebene gedruckt, fährt der Druckkopf oder das Werkstück um die Dicke des Gedruckten in die z-Richtung nach oben beziehungsweise nach unten. Nun wird die zweite Ebene gedruckt. Das wiederholt sich Schicht für Schicht, bis das 3D-Bild vollständig vergegenständlicht vorliegt. Beim 3D-Drucken handelt es sich im Gegensatz zu den klassischen Fertigungsverfahren des Fräsens, Drehens oder Bohrens, bei denen von einem Rohmaterial Material zur Herstellung des Endprodukts entfernt wird, um ein additives Fertigungsverfahren. Hier schon über den möglichen Energie- und Materialeinsatz zu mutmaßen, wäre noch zu früh. Gesichert aber ist, dass mit dem 3D-Druck komplexe und bizarre Formen gestaltbar sind, an die klassisch gar nicht zu denken war. Mittlerweile gibt es auch in der Öffentlichkeit einen regelrechten Run auf die 3D-Drucktechnik. Das hat u.a. damit zu tun, dass auslaufende Patente und nutzerfreundlichere wie leistungsfähigere Computer die Open Source Welt mit der Aussicht nach individueller und

demokratischer Produktion mobilisiert hat. Es sind aber auch die unübersehbaren Erfolge in der Industrie, die wirtschaftliche Vorteile und die Produktion im eigenen Land in Aussicht stellen und völlig neue Dienstleistungen aus dem Boden schießen lassen. Das erklärt schließlich auch eine wachsende Investitionsbereitschaft aus privater und öffentlicher Hand. Im Gegensatz zur Dampfmaschine, die ihr Wirken mit der Erfindung von Thomas Newcomen vor über 300 Jahren begann, ist für den 3D-Drucker ein solch repräsentativer Rückblick noch nicht möglich. Auch die Zukunftsforschung bedient uns hier nicht großzügig mit Voraussagen. Aber schon das Erreichte bekräftigt mich in der Grundannahme, dass für Mensch und Umwelt weit mehr in Aussicht steht als die fast täglich sich überschlagenden Meldungen über Einsatzmöglichkeiten vermuten lassen.

Die abschließenden zwei Beiträge – eigentlich nur ein Beitrag mit zwei unterschiedlichen Perspektiven! – führen Überlegungen weiter, die im Zusammenhang einer anderen Publikation begonnen wurden (vgl. Grimmeiss 2014; Langhoff/Junghans 2014), zur „Verbindung von Wissenschaft und Gesellschaft – eine Voraussetzung zur Lösung des Europäischen Paradoxons“. Zuerst reflektiert Hermann Grimmeiss die „Sicht des Wissenschaftlers“. Nach sieben europäischen Rahmenprogrammen und der Gründung von mehr als 1.000 europäischen Forschungsinfrastrukturen wurde es immer noch nicht geschafft, eine der größten Schwächen Europas zu überwinden, nämlich das Europäische Paradox. Der Begriff „Europäisches Paradox“ bezieht sich auf die Tatsache, dass wir in Europa zwar hervorragende Forschung betreiben, aber nicht in der Lage sind, die sich daraus ergebenden Erkenntnisse in neue Produkte zu überführen. Gegenwärtig werden nur 15% der innovativen Produkte weltweit in Europa hergestellt.

Eine Verringerung der europäischen Konkurrenzkraft auf dem globalen Industriemarkt führt zu einer Abnahme der Staatseinnahmen und somit zu unfreundlichen Problemen für die akademische Forschung, weil der größte Teil der öffentlichen Forschung mit Steuergeldern bezahlt wird. Für die Wissenschaftsgesellschaft ist es jedoch zu einfach, die Schuld für das Europäische Paradox auf das Erziehungssystem, die Medien oder die politischen Entscheidungsträger zu schieben. Aber indem die Wissenschaftsgesellschaft dies tut, vergisst sie eine wichtige Komponente, nämlich dass wir als Wissenschaftler die Verantwortung haben, unser Wissen nicht nur mit uns, sondern auch mit der Öffentlichkeit und insbesondere den politischen Entscheidungsträgern zu teilen. Im Beitrag werden nach einem kurzen Überblick über die Schwächen der europäischen Forschungsinfrastruktur bezüglich Fragmentierung, Ineffektivität, Transparenz, Priorisierung und Lobbyismus Vorschläge unterbereitet, wie die Wissenschaftsgesellschaft und insbesondere die Leibniz-Sozietät als unverzichtbare Quelle für die Produktivitätsentwicklung in allen Bereichen zum Nutzen und Wohle der europäischen Forschung und Wissenschaft eine besondere Verantwortung übernehmen könnte, den Dialog mit den politischen Entscheidungsträgern und der Gesellschaft entscheidend zu verbessern.

 

Anschließend erläutert Bernd Junghans die „Sicht des Unternehmers“. Die Aufwendungen für die Erfindung und Erforschung neuer Technologien sind in Europa hoch, die Ergebnisse in Form von Entdeckungen und Patenten sind ebenfalls beeindruckend. Bei der Umsetzung dieser Ideen in produktionswirksame Innovationen ist Europa jedoch gegenüber Asien und den USA schmerzlich ins Hintertreffen geraten. Grimmeiss nennt dies das europäische Paradoxon und analysiert die europäischen Schwächen aus Sicht eines Wissenschaftlers. Aus Sicht eines Unternehmers stellt sich diese Innovationsschwäche als ein Mangel an in novationsfördernden wirtschafts- und finanzpolitischen Rahmenbedingungen dar. Einerseits sind für High-Tech Start-ups die Finanzierungsbedingungen in der EU erheblich schlechter als in den USA. Insbesondere VC-Finanzierungen sind für anspruchsvolle Projekte (Medizin, Mikroelektronik u.a.) in Europa kaum möglich. Die Unterstützung durch Banken und staatliche Förderprogramme ist nicht nur bürokratisch kontraproduktiv sondern auch strukturell ungenügend. Andererseits fehlt den Start-ups ebenso wie auch den großen Unternehmen die Planungssicherheit für größere Investitionen auf dem High-Tech-Gebiet, da es im Gegensatz zu Asien und – neuerdings auch wieder – den USA keine mit der Forschungspolitik abgestimmte Wirtschaftspolitik in der EU gibt. Hoffnungsvolle Ansätze für eine in die Zukunft weisende Wirtschaftspolitik gibt es seit vergangenem Jahr durch die Initiative der EU-Kommissarin Neelie Kroes, die eine neue Strategie unter dem Namen „A European strategy for micro- und nanoelectronic components and systems“ auf den Weg gebracht hat, die erstmals nicht nur Forschungs- und Entwicklungsziele definiert, sondern auch den Aufbau der zugehörigen Produktionsbasis zum Ziel hat. Konsequent ausgestaltet kann dieses Vorhaben einen wichtigen Beitrag zur Auflösung des europäischen Paradoxons leisten.

 

Abschließend wird von Ernst-Otto Reher und Gerhard Banse im „Schlusswort und Ausblick“ einerseits resümiert, wie sich die Technologie-Evolution in der Wissensgesellschaft vollzieht, indem vor allem auf folgende

Merkmale verwiesen wurde: Miniaturisierung, steigende Komplexität der Systeme, zunehmende Durchdringung von technischen Systemen mit Informations- und Kommunikationstechnologie, „Verschränkung“ von Biotischem mit Technischem sowie rasche Entwicklung und umfassende Nutzung der Kommunikationstechnologien in allen gesellschaftlichen Sphären. Andererseits wurden als „Ausblick“ folgende Anregungen gegeben:

- In Fortführung der Auseinandersetzung mit der Wissensgesellschaft sollte angeregt werden, in der Leibniz-Sozietät die Diskussionen zu dem Thema zu vertiefen.

- Für das Jahr 2016 könnte das Thema des 7. Symposiums lauten: „Ressourcenschonende technologische Prozesse und Ausrüstungen – ein Beitrag zur Nachhaltigkeit“.

- Wünschenswert ist, eine zweite, erweiterte (bzw. veränderte) Auflage der „Beiträge zur Allgemeinen Technologie“ (vgl. Banse/Reher 2014) zu erarbeiten.