Anton
Reiter
30.
Jahrestagung der Gesellschaft für Informatik an der TU Berlin.
Unter dem Motto “Neue Horizonte im neuen Jahrhundert“ fand vom 19. bis
zum 22. September 2000 in den Räumen des Mathematikgebäudes an der TU Berlin
(Straße des 17. Juni gegenüber dem Ernst Reuter-Platz) die 30. Jahrestagung der
Gesellschaft für Informatik (GI) statt. Diese
auch international ausgerichtete Veranstaltung wurde von der
Gesellschaft für Informatik, der Technischen Universität Berlin, der Humboldt-
Universität und der Freien Universität Berlin gemeinsam organisiert.
im Bild (ã
Dr. Reiter) das Mathematikgebäude der TU Berlin, Tagungsort der 30.
GI-Jahrestagung, von außen
und im Innern (ã
Dr. Reiter)
Schwerpunkte der 30. GI-Jahrestagung
Zentral für die Tagung waren Fragen zur
Verbesserung und Orientierung von Ausbildung und Forschung. Dem Thema „Zukunft der Informatik-Ausbildung“ mit
Beiträgen zu Inhalt und Struktur des deutschen Ausbildungssystems, aber auch
zur technischen Weiterentwicklung durch den Einsatz neuer Medien, wurde
entsprechend hohe Aufmerksamkeit gewidmet. In den Vorträgen und
Podiumsdiskussionen wurden Themen wie
die Angleichung der universitären Ausbildungsgänge an die international
verbreiteten Bachelor- und
Master-Studiengänge, das Verhältnis zwischen Universitäten, Fachhochschulen
und Privatuniversitäten sowie neue Lehrformen und neue curriculare Strukturen
behandelt. Angesichts des anhaltenden Fachkräftemangels - Stichwort „Greencard“
- erhielt das Thema „Zukunft der Informatik-Ausbildung“ eine erhöhte Brisanz.
Als ein ganz neuer Forschungsschwerpunkt wurde die so genannte Bioinformatik vorgestellt.
Ein zweiter zentraler Teil der 30.
GI-Jahrestagung wurde von Vertretern der „Jungen
Informatik“ dargeboten, die ihre Ergebnisse vorstellten und damit aktuelle
Trends deutlich machten. So waren von der „Jungen Informatik“ 18 Beiträge
eingereicht worden, die allesamt vom Programmkomitee angenommen wurden. Diese
Beiträge behandelten Themen wie z. B: Computerarchitektur, Softwaretechnik, Algorithmik,
Computerlinguistik u.a.m. Die meisten
Referenten in diesem Block hatten ihr (zukunftsweisendes) Thema (bereits) im
Rahmen ihrer Dissertation bearbeitet.
Ein weiteres derzeit wichtiges
Forschungsthema in der Informatik stellt aus der Sicht der Praxis die Softwaretechnik dar. Zum Thema
„Softwaretechnik 2000“ waren weitaus mehr Papers eingereicht worden, als dann
angenommen wurden. Die insgesamt 7
Beiträge wurden auf die Kategorien „Prozess“ und „Objektorientierung“
aufgeteilt und repräsentierten damit die Hauptinteressen der (deutschen)
Softwaretechnologien. Ziel der Veranstalter war es, mit der Integration der
Fachtagung „Softwaretechnik“ in die GI-Jahrestagung ein breites Publikum über
neue Trends und Entwicklungen zu informieren. Gerade die „objektorientierte Entwicklung“ hat an
Bedeutung gewonnen, Entwurfsmuster und Frameworks stoßen sowohl in der Praxis
als auch in der Forschung auf reges Interesse.
Abgerundet wurde die Tagung durch Workshops und Tutorials zu aktuellen Themen wie beispielsweise „Electronic
Government“, „Sicherheit in Mediendaten“, „Unternehmen Hochschule“, „Grafiktag
2000“, „Lehrerbildung
Informatik-Konzepte und Erfahrungen“, Multimediales Lernen im Internet“ (der
Berichterstatter nahm an den beiden letzteren teil) u.a.m.
Eine allgemein anerkannte Definition
lautet: „Informatik ist eine
Ingenieurwissenschaft, die sich mit der systematischen und automatischen
Verarbeitung, Darstellung, Speicherung und Übertragung von Information aus
Sicht der Hardware, der Software, der Grundlagen, der Anwendungen und der
Auswirkungen befasst“. Zu den wichtigsten Hauptgebieten der Informatik zählen die Theoretische Informatik (z.B. Algorithmen und Datenstrukturen,
Komplexitätstheorie, formale Sprachen,...), die Praktische Informatik (z.B. Softwaretechnik, Systemarchitektur,
Programmiersprachen,...) die Technische
Informatik (z.B. Schaltungen, Rechnerarchitektur, vernetzte Systeme,...)
und die Angewandte Informatik (z.B.
Systemanalyse, CAD/CAM integrierte Systeme, Didaktik der Informatik,...).
Die besondere Befähigung von
Informatikerinnen und Informatikern liegt in der Analyse, Konzipierung und
Konfigurierung von Hard- und Softwaresystemen und deren Einbettung in
bestehende Umgebungen, in der Planung und Organisation, in der Anpassung von
System- und Anwendungssoftware, im Erschließen neuer Einsatzgebiete und auch in
der Schulung. Heutzutage kommt der Informatik in immer mehr Gebieten eine
unaufhörlich wachsende Bedeutung zu. Viele ihrer Anwendungen werden zu den
volkswirtschaftlich bedeutsamen Schlüssel- und Wachstumstechnologien gezählt.
Der Einsatz von Computern in Wissenschaft, Wirtschaft, Verwaltung und im
öffentlichen Leben trägt z.B. zur Gewinnung neuer Erkenntnisse, zur erhöhten Sicherheit von technischen
Anlagen und des Verkehrs sowie auch zum sparsameren Verbrauch von Ressourcen
bei. Computer erweitern die Forschungs- und Arbeitsmöglichkeiten nicht nur in
den Natur- und
Ingenieurswissenschaften, sondern zunehmend auch in den Geistes- und
Sozialwissenschaften. Die Informatikberufe entwickeln sich besonders rasch,
existierende Berufsfelder sind noch lange nicht in allen Aspekten klar
umrissen, ständig entstehen neue IT-Berufe. Unabdingbar für ein
Informatikstudium sind Interesse an logischem Denken und hohe Konzentrationsfähigkeit
sowie die Fähigkeit zur Einarbeitung in komplexe Systeme, auch Interesse an
technischen Zusammenhängen sollte vorliegen.
Tutorium:
Multimediales Lernen im Internet
(Vortragende: Prof. Dr. Wolfgang
Effelsberg, Universität Mannheim und Dr. Stephan Fischer, GMD Darmstadt)
im Bild Prof. Dr. Wolfgang Effelsberg (ã
Dr. Reiter)
und Dr. Stephan Fischer (ã
Dr. Reiter)
Eines von mehreren Tutorien am ersten
Konferenztag (19.9.2000) unter dem Titel „Multimediales Lernen und Lehren im
Internet“, an dem der Berichterstatter teilnahm, wurde von zwei Vortragenden
abgehandelt. Während Prof. Dr. Effelsberg den aktuellen Stand von Multimedia
aus technischer Hinsicht erläuterte (erklärt wurde z.B. das Prinzip der
Datenkompression, moderne Übertragungstechniken für kontinuierliche
Datenströme, die Funktion von Teachware -Servern), befasste sich Dr. Fischer
zunächst mit den Grundlagen für multimediales Lernen. Erklärt wurden die drei
gängigsten Lerntheorien: Behaviorismus, Kognitivismus und der moderne
Konstruktivismus. Schließlich ging Dr. Fischer auf das „Lernen mit Hypermedia“
ein und erläuterte die Funktionsweise von „adaptiven Lernsystemen“.
Gegenüberstellung der drei bekanntesten Lerntheorien (aus
dem Vortragsskriptum)
Im Anschluss daran referierte Dr.
Effelsberg über das seit 1996 an den
Universitäten Mannheim, Heidelberg, Karlsruhe und Freiburg laufende
Verbundprogramm unter dem Projekttitel „VIROR“, in dem es um „Teleteaching und
Telelearning“ auf universitärer Ebene geht. Der Schwerpunkt liegt dabei in
synchronen Lernszenarien, worunter eine zeitgleiche (Internet-) Übertragung
einer Lehrveranstaltung an verschiedenen Orte zu verstehen ist. Die Audio- und
Videoströme des Dozenten werden zugleich aufgezeichnet und als Bestandteil eines
Computer Based Trainings zeitunabhängig für asynchrone Lernszenarien zur
Verfügung gestellt. Gleichzeitig setzt man ein Whiteboard als elektronische
Tafel ein, um schriftliche Dokumente bei den Teilnehmern anzuzeigen. Viele
europäische Universitäten betreiben derzeit aktuelle Forschungsprojekte über
Technik, Anwendungen und Auswirkungen von Fernlehre.
Teleteaching wird durchgeführt in
synchronen und asynchronen Lernszenarien. Unter einem synchronen Szenario
versteht man dabei Lehre zur gleichen Zeit an verschiedenen Orten, während
asynchrone Lehre zeitunabhängiges Lernen an verschiedenen Orten bezeichnet.
Beide Szenarien haben vielfältige Vorteile: ein Dozent kann Studierende an
verschiedenen Orten gleichzeitig unterrichten. Dabei eingesparte Zeit, indem
gleicher Inhalt nicht mehrfach parallel unterrichtet werden muss, oder
eingesparte Zeit durch weniger Reisetätigkeit, kann der inhaltlichen
Aufarbeitung des Stoffes zugute kommen. Studierende nutzen bereitgestelltes
Lernmaterial für asynchrones Lernen gerne, um nach eigenem Geschmack und
eigener Geschwindigkeit lernen zu können. Das Hauptziel synchronen
Teleteachings ist aber, Ortsunabhängigkeit zwischen Dozenten und Studierenden
zu erreichen.
Der Onlinebetrieb im VIROR-Projekt
wurde auch wissenschaftlich ausgewertet. Ein
Ergebnis ist der Umstand, dass die Fernlernenden es bedeutend
schwerwiegender empfanden, wenn die Audioleitungen unterbrochen waren bzw. ein
schlechter Ton zu hören war, als wenn beispielsweise kurzfristige
Bildverzerrungen oder -ausfälle eintraten.
Exemplarisches
Bildschirmlayout während einer verteilten Vorlesung an der Universität Erlangen
(Quelle: PIK, 23. Jg. , S. 138)
Dr. Effelsberg beschrieb anschließend
die erforderlichen HW- und SW- Konfigurationen, u.a. die Funktionsweise des so
genannten Whiteboards und die verschieden Formen von Videoconferencing;
abschließend stellte Dr. Fischer das von ihm geführte Projekt „Multibook“
vor, das eine Online-Wissensbasis
darstellt mit allen Features interaktiver Online-Module.
Ansicht auf die freie
Universität Berlin (ã Dr. Reiter)
Am ersten Tag fand parallel und fernab
der technischen Universität am Ernst Reuter-Platz an der Freien Universität
Berlin ein sehr interessanter Workshop zum Thema „Lehrerbildung und Informatik
– Konzept und Erfahrungen“ statt, an dem der Berichterstatter nachmittags
teilnahm. Organisiert wurde dieser Workshop von
den bekannten Informatikprofessoren Dr.
Sigrid Schubert (Universität Dortmund)
und Dr. Andreas Schwill (Universität Potsdam). Ausgangspunkt für den Workshop
bildete die Diskussion um die Greencard für ausländische Fachkräfte im IT-
Bereich, die insgesamt den großen Nachholbedarf der informatischen Bildung auf
allen Ebenen der Ausbildung aufzeigen würde, wurde argumentiert. So existiert
in Deutschland (wenn auch in unterschiedlicher Weise) an den allgemein
bildenden und beruflichen Schulen seit mehr als 30 Jahren das Lehramt
Informatik, welches aber lange Zeit und zum Teil auch heute noch ohne
grundständiges Studium der Informatik zuerkannt wurde und wird. In den letzten
Jahren änderte sich dieses mit vermehrten Studiengängen zum Lehramt Informatik
für die Sekundarstufen 1 und 2.
Workshop-Teilnehmer
Prof.
Schubert und Schwill kritisierten unisono, dass auch heute noch die weit
überwiegende Zahl der Informatiklehrer durch Weiterbildungsmaßnahmen
ausgebildet werden, auch weiterhin existiert ein Mangel an gut ausgebildeten
Informatiklehrern (nicht nur in Deutschland). Gründe dafür sind nach Dr.
Schwill die viel zu geringe Zahl von Studienanfängern, die Abwanderung von
Absolventen in attraktivere Bereiche der Wirtschaft, zum Teil aber auch
ungeeignete Studienkonzepte.
Dr. Schubert ging davon aus, das - um
informatische Bildung in Schulen gestalten zu können, die Lehrer in die Lage
versetzt werden müssen, attraktive und zeitgemäße Lehrpläne, Unterrichtsreihen
und -entwürfe zu gestalten und entsprechend der dynamischen Entwicklung der
Informatik fortzuentwickeln. Ferner müssen diese die Fähigkeit erwerben,
forderte Schubert, das interdisziplinäre Potenzial Informatik in Zusammenarbeit
mit den anderen Schulfächern freizusetzen. Das kann mit
wissenschaftstheoretischen Erkenntnissen zur Charakteristik des Faches und
seinen Innen- bzw. Außenbeziehungen
(fundamentale Ideen) gefördert werden. Bisher fänden sich dazu Ansätze
in der Didaktik der Informatik. Dies genügt aber noch nicht, vielmehr müssen
zentrale curriculare Normen, Strukturbeziehungen der Wissenschaft und
methodische Vorgehensweisen den gesamten Lernstudiengang selbst durchsetzen.
Ziel dieses Workshops war es insgesamt,
den Erfahrungsaustausch zu allen Formen der lehrerbildenden Informatik zu
fördern. Der Schwerpunkt lag auf Konzepten zur grundständigen Ausbildung von
Lehrkräften in Informatik, daneben wurden auch Aspekte der Lehrerfort- und
-Weiterbildung behandelt. Die zum Workshop eingereichten 10 Beiträge wurden in
2 Schwerpunkte unterteilt:
1. Informatik für
alle Lehrämter
2. Lehramt
Informatik
Ausgewählte Beiträge sollen nach Begutachtung
in überarbeiteter Form in der elektronischen Zeitschrift „informatica didacta“,
Zeitschrift für fachdidaktische Grundlagen der Informatik“ erscheinen (http://didaktik.cs.uni-potsdam.de/informaticDidacta
publiziert werden.
Eröffnet wurde die Haupttagung am 20.
September durch den Staatssekretär im Bundesministerium für Bildung und
Forschung, Herrn Dr. Uwe Thomas. Er
unterstrich in seinem Vortrag die derzeitigen Trends in der Informations- und
Kommunikationsgesellschaft: Mobilfunk, new economy und Internet. Besonders das
Internet habe massive Veränderungen im Bildungswesen in allen Sparten des
Bildungswesens bewirkt. Thomas begrüsste besonders die Initiative „Schulen ans
Netz“ (bis 2001 sollen alle deutschen Schulen am Netz sein) und sprach sich für
eine gezielte Förderung der Entwicklung von Lernsoftware aus. Informatik der
Zukunft werde von der Mathematik, von der Mensch-Maschine-Schnittstelle, von biologischen
Systemen und vom Mediendesign bestimmt werden, meinte Staatssekretär Thomas.
Die über die Grenzen Deutschlands hinaus bekannte GMD (Gesellschaft für
Mathematik und Datenverarbeitung) wird in naher Zukunft ein so genanntes „Center of Excellence“ aufbauen, in das
rund eine halbe Milliarde DM für Forschung und Entwicklungszwecke auf der Ebene
Software-Engineering investiert werden soll. Durchaus wichtig ist dabei nach
Thomas die Verkettung einer langfristigen Grundlagenforschung mit der
Entwicklungsdynamik bei den Mikroprozessoren, um weit bessere Ergebnisse zu
erzielen.
im Bild
Staatssekretär Dr. Uwe Thomas (ã Dr. Reiter)
Den ersten Hauptvortrag hielt Prof. Dr.
Andreas Reuter (International
University in Germany, Bruchsal) zum Thema „Informatikausbildung der Zukunft“.
Informatik wird zukünftig ein integraler Bestandteil aller Disziplinen sein,
ohne IT Kenntnisse wird man nicht mehr auskommen. „IT als Disziplin, als Methode, allgegenwärtig und umfassend.
Informatik als Grundlagendisziplin, als Werkzeug des täglichen Lebens“. Das
ist das Szenario. In Zukunft wird es keine strikte Trennung mehr geben zwischen
Ausbildung und Berufstätigkeit, man wird sich mehr und mehr auch im Berufsleben
auf neue Entwicklungen anpassen müssen und ständig dazulernen. Eine ständige
Weiterbildung ist der einzige Ausweg, um die Dynamik in den Griff zu bekommen,
sagte Reuter. Es entstehen neue Berufe,
so genannte Bildungsbroker, die einfach Ausbildungspläne erarbeiten und
vorlegen werden. Es müsse noch viel mehr in die Informatikforschung investiert
werden, besonders auch in die Schnittstelle Mensch-Computer (Human Computer
Interface, HCI). Leider sei in
Deutschland, meinte Prof. Dr.
Reuter, Informatik Sache der Länder,
darum gebe es auch so unterschiedliche
Regelungen und keine wirkliche Einheitlichkeit in den Studienplänen. Es
müssen mehr Möglichkeiten zur informatischen Weiterbildung geschaffen werden,
die Lösung kann nicht sein, das man erfolgreiche Weiterbildungs- oder
Studiengänge ersetzt durch die von Außen herangetragene Ausbildung zum Bachelor
oder Master.
Prof. Dr. Ernst
Reuter, der einen sehr pointierten Vortrag hielt (ã
Dr. Reiter)
Der Bereich „Telelearning –Teleteaching“ wurde mehrfach und von verschiedenen
Blickpunkten am ersten Tag abgehandelt. Unter anderem hielt auch von Prof. Dr.
Thomas Ottmann (Universität
Freiburg) einen Vortrag über „Möglichkeiten um Grenzen der Virtualisierung des
Informatikstudiums“: “Die Hochschullehrer
im Fach Informatik an den Präsenzuniversitäten haben in den letzten Jahren damit
begonnen, ihr gesamtes Lehr- und Lernmaterial , also Skripten,
Foliensammlungen, Übungsaufgaben und Lösungen, bis hin zu elektronischen
Versionen von Lehrbüchern, systtematisch im Web verfügbar zu machen“ (S. 6
im Tagungsband). Prof. Dr. Wolfgang Effelsberg
(nach dem Workshop am Vortag) behandelte das verwandte Thema „Lehren und
lernen im Internet -Herausforderungen an die Informatik“ Prof. Dr. Bernd Krämer (Fernuniversität Hagen) referierte zum Thema „Interaktive
Lernsysteme im Fernstudium: Betrachtung eines Programmierkurses im Zeitraffer“:
„Das Internet, kostengünstige
Mulltimediatechnik und breitbandige Kommunikationsnetze eröffnen nun völlig
neue Möglichkeiten, das zeit- und ortsungebundene Lernen zu gestalten,...“
(S.12 im Tagungsband) Am Nachmittag
wurde auch öfters die Frage aufgeworfen „Ist der Bachelor unausweichlich?“, die
mit unterschiedlichen Argumenten, mit Pro- und Kontra-Meinungen, beantwortet
wurde: „Bachelor sofort oder später, Bachelor allein oder mit Master oder nur
Master, Bachelor als eigener Studiengang oder als Variante des
Diplomstudiengangs usw. Um
Kompatibilität mit ausländischen Zwischen- und Endzeugnissen
herzustellen, wäre es ausreichend, wurde argumentiert, einige internationale Abkommen
zu schließen und an wenigen Informatik-Standorten gesonderte
Bachelor-Studiengänge einzurichten. Viele sind der Meinung, dass die
Qualifikation der Absolventen nicht gesteigert werden kann, wenn man dadurch
die Studiendauer verkürzt.
im Auditorium,
darunter auch der OCG-Vizepräsident Univ.-Prof. Dr Futschek (Bildmitte) (ã
Dr. Reiter)
Kritik wurde auch an der „Effizienz von Multimedia“ geübt, steht
doch der Aspekt der Lernwirksamkeit im Vordergrund. Erwartet wird die
Qualitätssteigerung und damit auch verbesserte Möglichkeiten der Selbstaneignung
des Lehrmaterials. Prof. Dr. Reinhard Keil-Slawik (Heinz-Nixdorf-Institut,
Universität Paderborn): „Zwar ist es
richtig, das durch verbesserte sinnliche Qualitäten in der Aufbereitung des
Lernmaterials Aneignungs- und Behaltenspotenziale besser unterstützt werden
können, doch ist dies keine generelle Qualitität von Multimedia, die sich zum
Beispiel durch die Verknüpfung von Ton, Text und Bewegbild gewissermaßen von
alleine einstellt. Vielmehr kommt es meist drauf an, diese Materialien geeignet
in die sozialen Lernprozesse der Lernenden und Lehrenden einzubetten. Die
besondere Betonung der Lernwirksamkeit zielt jedoch auf die individuelle
Aneignung vorgefertigter Materialien“ (Keil-Slawik 2000, S. 34 im
Tagungsband).
Am zweiten Tag (20.9.2000) stand die
„Bioinformatik“ neben der „Jungen Informatik „im Mittelpunkt. Bioinformatik
gilt nach Prof. Dr. Hans-Jürgen Thiessen
(Medizinische Fakultät, Universität Rostock) zurzeit als die
Schlüsseltechnologie in Life-Sience-Bereich. Sie beschäftigt sich hauptsächlich
mit der Analyse und Klassifizierung von DNA -, RNA und Proteinstrukturen. Dabei
übernimmt sie das Informationsmanagement, simuliert einzelne Prozessabläufe,
beschreibt Molekülstrukturen, Molekülinteraktionen, metabolische und
regulatorische Netzwerke, Zellorganisationen, ganze Zellen und ihre
Interaktionen bis hin zu ganzen Organismen. Makroskopische und mikroskopische
Biowissenschaften rücken zusammen und werden somit einer ganzheitlichen
Betrachtung zugeführt. Beider Suche nach neuen Medikamenten werden im sog.
Hochdurchsatzverfahren (High-througoutput-Screening, HTS) unter anderem
biologische Prozesse parametrisiert und quantrifiziert. Um dieses zukünftig
noch effizienter unter Einbindung einer
genomorientierten Bioinformatik in den Forschungs und
Entwicklungsabteilungen der Wirtschaft und den akademischen Instituten zu
realisieren, sind hohe Anforderungen auch an die Lehrinhalte der zukünftigen
Studiengänge für Bioinformatik und der Qualifikation ihrer Lehrstuhlinhaber zu
stellen. Bioinformatik wird sich langfristig von einer unterstützenden
Wissenschaftsdisziplin zu einer eigenständigen Disziplin fortentwickeln, die
vollständige Simulation einer lebenden Zelle bzw. Organismus mit all seinen
Funktionen in Raum und Zeit wird eine große intellektuelle Herausforderung für
die nächsten Generationen sein. Zurzeit ist es allerdings noch nicht einmal
möglich, Proteinfaltungsstrukturen eindeutig vorherzusagen, geschweige denn die
Funktion eines Proteins oder dessen Interaktion mit anderen Makromolekülen zu
prognostizieren. Obgleich experimentell jede Aminosäurekombination (Sequenz) im
Labor synthetisiert werden könnte, verfügen wir bisher nicht über den „Newton
der modernen Biologie“, der uns das entsprechende Regelwerk zum Design dieser
De-Novo-Proteine (Enzyme) überlässt, schränkte Prof. Dr. Thiessen ein (siehe S.
55ff. im Tagungsband) .
Die fachbezogenen Spezialthemen der am
Nachmittag des zweiten Tages teilweise in parallelen Veranstaltungen von
Repräsentanten der Jungen Informatik
beinhalteten Aspekte wie
„Methoden der künstlichen Intelligenz“ (symbolische Repräsentation),
Musterdatenbanken, Realzeitsuche, auch konkrete Ansätze wie etwa Anforderungen
an die Software-Entwicklungswerkzeuge, Lernen von Algorithmen mit interaktiven
Visualisierungen, mathematische Modelle u.v.a.m.
Architektur-Skizze
(aus Tagungsband S. 97)
Während der vier Veranstaltungstage
zeigte sich ein erkennbarer Aufwärtstrend der deutschen Hochschulinformatik,
die auch weiterhin in einer engen Zusammenarbeit mit der Industrie ihre
Entwicklungs- und Forschungsvorhaben finanzieren will. Inmitten der Diskussion
um eine Änderung einzelner Informatikstudiengänge durch die Einführung von
zusätzlichen Bachelor- und Masterstudien, vor allem auch durch die einerseits betriebene,
andererseits mit Argwohn verfolgte Ausweitung der privaten (z.T. ausländischen)
Universitäten im ganzen deutschen Bundesgebiet kam insgesamt die
Schulinformatik viel zu kurz. Der am ersten Tag an der Freien Universität
stattgefundene Workshop zeigte augenscheinlich die große Diskrepanz in den
deutschen Bundesländern auf, in denen es durchwegs völlig unterschiedliche
Informatikcuriccula an den allgemein bildenden und beruflichen Schulen gibt. Im
Vergleich zu Österreich, wo (für viele)
erfreulicherweise ab dem WS 2000/01 an drei Standorten mit dem
Informatiklehramststudium (Informatikmanager) begonnen wird, gibt es in
Deutschland (noch immer) kein eigenes Informatiklehramtsstudium. Der
Berichterstatter bekam auch den Eindruck, das sich die führenden Köpfe der
deutschen universitären Informatikszene nicht mit außeruniversitären Problemen
beschäftigen, das also eine Art Zwei- Weltentheorie besteht: Das, was
Informatik an den Schulen der
Sekundarstufe 1 und 2 sein könnte/sollte ist die eine Welt, die andere Welt
ruht im tertiären Sektor und koppelt sich ab. Die beeindruckenden Highlights
allerdings für den Berichterstatter waren die Themen der aufstrebenden
Bioinformatik und letztendlich auch das hohe Potenzial des wissenschaftlichen
Informatiknachwuchses, deren Vertreter – wie betont wurde, fast alle samt in
die Wirtschaft bzw. an amerikanischen Universität „abtrifften“ werden. Im
Vergleich zu österreichischen Hochschulstandorten ist Teleteaching und
Telelearning vor allem an den zitierten VIROR-Universitäten erfreulich weit
gediehen.
Die 30. Jahrestagung für Gesellschaft für Informatik ermöglichte dem Berichterstatter auch die Kontaktaufnahme mit möglichen Referenten (Effelsberg, Schwill, Schubert,...) für den von ihm bereits fixierten Themenkreis „Die Zukunft der Schulinformatik“ im September 2001 im Rahmen der Informationstagung Mikroelektronik, die vom BMBWK gemeinsam mit der TU Wien und Seibersdorf getragen werden wird. Ein fruchtbarer Meinungsaustausch hat also vorweg in Berlin stattgefunden.
Literaturverweise:
Kurt Melhorn/Gregor Snelting (Hrsg.):
Informatik 2000. Neue Horizonte im neuen Jahrhundert, Tagungsband zur 30.
GI-Jahrestagung 2000 (19. –22. 9. 2000), Berlin-Heidelberg-New York (Springer)
2000
Fachzeitschrift für den Einsatz von
Informationssystemen: „Praxis der
Informationsverarbeitung und Kommunikation“, 23. Jahrgang, 3/2000, K.G. Saur
Verlag
Unterlage zum Workshop „ Lehrerbildung
Informatik – Konzepte und Erfahrungen“, hrsg. von Prof. Dr. Sigrid Schubert und
Prof. Dr. Andreas Schwill