von Wolfgang Näser, Marburg, August 2012 ff.
Wir schreiben das Jahr 2012. Nicht weniger als
31 Jahre sind vergangen, seit der erste richtige IBM-PC (dessen
"Rechenwerk" heute in einem Stück Würfelzucker Platz fände)
seine Markt-Premiere erlebte: mit nur 64 kB RAM und einem bescheidenen
180-kB-Laufwerk. Sozusagen eine Art elektronischer (oder eher noch: elektrischer)
Speicher-Schreibmaschine. Erst zwei Jahre später gab es einen erweiterten
Speicher: die erste 10-Megabyte-Festplatte. Das Internet existierte
bereits im Experimentierstadium, doch an ein World Wide Web war
ebensowenig zu denken wie an Soziale und andere Netzwerke,
geschweige denn an echte Multimedia-Arbeit mit einem Personal Computer.
Lange Zeit wurde die komplette PC-Arbeit mit
DOS-Programmen und -Befehlen geleistet.
Heute dagegen sitzt der private oder berufliche Anwender beispielsweise an
einem kleinen Rechner, den er überallhin mitnehmen kann, dem
11-Zoll-Netbook mit 6 Gigabytes RAM und einer Festplatte von
320 GB, er orientiert sich an meist intuitiv verstehbaren, per
Maus oder Touchpad anklickbaren Programm-Fenstern,
kommuniziert drahtlos mit dem World Wide Web, loggt sich
in Soziale Netzwerke ein, empfängt riesige Datenmengen im
Gigabyte-Umfang von hunderttausenden internationalen Servern, er
verarbeitet multimediale Daten*), lädt Video-Clips in einen weltweit
empfangbaren Server namens YouTube. Das bescheiden anmutende sogenannte
Packard-Bell Easy Note NCL 20 hat nicht einmal 400 Euro gekostet und
besitzt auch ein integriertes Laufwerk, mit dem sich CDs und
DVDs lesen und "brennen" lassen. Der kontrastreiche Bildschirm hat
eine hohe Auflösung, die dargestellten Schriften lassen sich beliebig
skalieren und die geschriebenen und je nach Zweck formatierten Texte mit
einem Tintenstrahl- oder Laserdrucker ausgeben. Alle externen
Geräte werden vom Betriebssystem automatisch erkannt und über
spezielle Treiber aktiviert.
*) nicht alle Multimedia-Spielarten lassen sich mit einem bescheidenen Netbook
verarbeiten; Zum Editieren von Filmen ist ein aufwendigerer Rechner nötig.
Damit habe ich, am Beginn meines Textes, den Ist-Stand vom Herbst 2012 skizziert - der schon obsolet zu werden droht, ist doch die Zeitstrecke der IT-Entwicklung gespickt mit nahezu monatlich bekannt werdenden Innovationen; wir leben in einer totalen Informationsgesellschaft, wo in Sekunden alles Wissenswerte in einer Datenbank namens Wikipedia nachgeschlagen wird, die in weit mehr als 100 Sprachen verfügbar ist und an der tausende freiwillig und unentgeltlich mitarbeiten - an der größten und aktuellsten Enzyklopädie unserer Zeit. Unzählige kommerzielle Daten-DVDs enthalten so nützliche Sammlungen wie zum Beispiel rund 34 Millionen deutsche Telefonanschlüsse, inclusive Rückwärtssuche. Und es gibt, seit einigen Jahren, auch sogenannte e-Reader, flach und etwa so groß wie ein Frühstücksbrett und mit einem internen Speicher von 3 Gigabytes oder mehr, auf deren weißem Bildschirm mittels der sogenannten e-Ink-Technologie sogar bei hellem Sonnenlicht Bücher und Manuskripte gelesen werden - tausende passen auf den internen Speicher.
Somit müßten wir alle glücklich sein. Ein wahres Paradies an Informationsverarbeitung und Kreativität; noch undenkbar vor einem halben Jahrhundert, auch wenn es schon damals riesige "Elektronengehirne" gab, die ganze Säle füllten in den Rechenzentren der öffentlichen Verwaltungen , der militärischen Organisationen und Universitäten. Aber es war sonst noch alles analog. Analog wurde gefilmt, fotografiert, wurden Ton und Bild aufgenommen, und Texte wurden mit schweren, teils unhandlichen und langsamen Schreibmaschinen getippt - der IBM-Kugelkopf war damals ein großer Durchbruch, die Typenhebel verhedderten sich nicht mehr, es gab ja keine, und diese Kugelkopf-Schreibmaschinen wurden deshalb zu "Terminals" in vielen Rechenzentren, wenn es darum ging, einfache Texte so schnell wie möglich auszudrucken.
Mein Text ist nichts anderes als Reflexion, in Kurzform quasi das Produkt von Erfahrungen aus mittlerweile 25 Jahren Arbeit mit verschiedensten digitalen Rechnern, Aufnahmegeräten und anderem auf dem Gebiet der Dokumentation und Informationsverarbeitung und soll das ergänzen, was ich bereits an anderer Stelle in meiner Homepage zu diesen Themen geschrieben habe. Ein kurzes Innehalten der Besinnung auf das, was wesentlich ist und worüber man oft hinwegsieht in der gnadenlosen Hektik unserer Zeit, deren Arbeitstakt sich dem Takt der in immer kürzeren Abständen neu entwickelten Prozessoren anzupassen scheint.
Meine Ausführungen gelten vornehmlich solchen geisteswissenschaftlichen Bereichen, die sich in einer empirischen Forschung befassen mit Datengewinnung (data retrieval), Datenauswertung- und bearbeitung (Evaluation und Re-Editing) und Archivierung, also mit Verfahren zur Informationsgewinnung und Dokumentation wertvoller Phänomene und auch Aussagen, die vielfältig und von einem möglichst großen Interessentenkreis genutzt und langfristig auch für nachfolgende Generationen gespeichert werden sollten. Als Beispiel für solches Arbeiten betrachte ich die Verfahrensweise der angewandten Sprachwissenschaft auf den Gebieten der Soziolinguistik, der sprachlichen Statistik, der Dialektologie und der Phonetik.
Mühsam und sehr aufwendig war die apparative Feldforschung in
ihren Anfängen. Um, wie beispielsweise im 1977 erschienenen
Arbeitsbericht der Marburger Phonetik gefordert, "archivfähige"
Sprachaufnahmen zu erzielen, waren damals professionelle Tonbandgeräte
nötig wie etwa im Außendienst die Nagra IV, die
damals noch (ohne Zubehör) rund 12.000 DM kostete, unübersehbar
klobige Mikrofone wurden aufgestellt, neben dem wissenschaftlich qualifizierten
Interviewer (Explorator) agierte ein mit Kopfhöreren bewaffneter
Toningenieur; im schalldichten Aufnahme-Studio wurden
Kondensator-Mikrofone von Georg Neumann benutzt und die Signale im separaten
Technik-Raum einem mit sogenannten Kassettenverstärkern bestückten,
rundfunktauglichen Mischpult zugeführt. Die hier auf "Maschinen" wie
dem Telefunken M 10 oder M 15 mit 38
cm/sec. und Vollspur gefertigten
Tonbänder wurden in großen Schränken und exakt klimatisierten
Räumen gelagert, was trotzdem gewisse Langzeitschäden wie
Schichtverklebung (bzw. -Ablösung) und / oder
unerwünschte Echos nicht ausschloß. Semiprofessionell
verwendete man im Außendienst das Uher Report oder das bei 19
cm/s rundfunktaugliche Grundig TK 3200 HiFi. Im
Cassettenrecorder-Bereich brillierte das auch im
Rundfunk-Außendienst verwendete Sony TCD-5M (links), das mit
guten Chromdioxyd- und vor allem mit Reineisenbandcassetten locker die HiFi-Norm
erfüllt. Bei mir arbeitet mein erstes TCD5M nun seit gut 27 Jahren ohne
Probleme und eignet sich noch heute ausgezeichnet als Analog-Recorder für
hochwertige Live-Konzertaufnahmen und / oder für explorative
Sprachdokumentation. Leider gibt es im Handel keine hochwertigen
Audio-Kompaktcassetten mehr.
Cassettenrecorder eignen sich übrigens noch immer bestens zur Auswertung
und vor allem zur Transkription von Texten. Die analog oder digital gefertigten
Tonaufnahmen sind hierfür auf einen robusten Recorder zu überspielen,
der eine verschleißfreie Cue- und Review-Möglichkeit besitzt,
mit der sich beliebig zwischen einzelnen Passagen hin und her navigieren
läßt. Der hier beschriebene
ITT SL 700 A war ein solches Gerät; wer es besitzt, kann sich
glücklich schätzen.
Es gab zwar bereits recht leistungsfähige Personal Computer, doch so gut wie keine Möglichkeit, die gewonnenen auditiven und / oder visuellen Daten dort weiterzuverarbeiten
Bereits an der Wende zur letzten Dekade des 20. Jahrhunderts zeichnete sich ein bedeutender Wandel ab. Seit etwa 1987 gab es mit dem Sony TCD-D10 den ersten digital arbeitenden Recorder mit dem sogenannten DAT-Verfahren, wobei sich das nur 3,81 mm breite, reineisenbeschichtete Band analog der VHS-Videotechnologie um eine winzige Trommel schlingt und dort im Schrägspur- oder Helikalverfahren bespielt wird. Die nur 7,2 x 5,3 cm messenden und rund 1 cm "dicken" DAT-Cassetten konnten in CD-Qualität als "Audio"-Varianten 90 oder 120 Minuten speichern, während die baugleichen sog. Streamer-Bänder bis zu 4 Stunden Aufnahmezeit ermöglichten. Zum oftmaligen Abhören und informationstechnischen Auswerten ließen sich die DAT-Bänder natürlich fast verlustlos auf hochwertige Analog-Tonbänder oder Kompaktcassetten speichern; sollte die Auswertung ebenfalls digital geschehen, mußte als geeigneter Zwischenträger eine Selbstaufnahme-CD dienen, die aber erst ab etwa 1996 zur Verfügung stand. War der CD-Rohling entsprechend bespielt, so konnte sein Inhalt in den Computer eingelesen ("gerippt") und dort entweder bearbeitet (editiert, gemastert) oder mit speziellen Analyse-Programmen (z.B. phonetisch) ausgewertet werden. Das CD-Recorder-Verfahren ermöglichte nun auch, auf beliebigem Equipment (also von der Tonwalze bis zum Studio-Recorder) entstandene analoge Tonaufnahmen entsprechend zu digitalisieren und auszuwerten. Neben der Datensicherung mit meist PC-internen Laufwerken entstanden als selbständige Einheiten CD-Recorder zur Tonaufnahme entweder auf spezielle, audiokonforme oder auf gewöhnliche 12- und 8-cm-Datenrohlinge, somit auch die Möglichkeit, "Direktschnitte" per CD-Recorder vorzunehmen, allerdings mit dem Nachteil, daß sich die Audio-Rohlinge nicht löschen und neu bespielen lassen. Mangels Mikrofoneingang benötigen diese Geräte einen Vorverstärker, der (sofern möglich) über Lichtleiter oder analog über Line out / Line in angekoppelt wird. Optimal arbeitet das Sony- TCD5M als "Vorverstärker", denn es enthält u.a. einen der besten Limiter und ermöglicht neben der digitalen parallel eine analoge Aufzeichnung.
Digital, das hieß von nun an (fast ausschließlich) verlustfrei arbeiten, während beim analogen Kopieren stets leichte Qualitätseinbußen eintraten. Man durfte - und das stellte sich erst später (manchmal zu spät) heraus, nur nicht den Fehler machen, eine DAT-Aufnahme öfter abzuspielen,. weil dadurch Band und Kopf leicht verschlissen werden; ferner zeigte sich langzeitig, daß in der Anfangszeit (um 1990) gefertigte DAT-Aufnahmen schon nach zehn oder zwanzig Jahren nur mit teils sehr unangenehmen "Spratz"-Störungen abgespielt (und dadurch Teile unlesbar) wurden; zudem können das gefürchtete Band-Knittern und das Festbacken des Bandwickels auch hier auftreten.
Nun ist die ganze, sich erst spät als problematisch erwiesene DAT-Technologie inzwischen so gut wie Geschichte. Als eleganter und fast verschleißfrei erwies sich das Anfang 1993 eingeführte Minidisc-Verfahren. Die in ein nur 7 x 6,8 cm großes "Jacket" eingepaßte, 6,2 cm große Platte erlaubt mit 5-facher (verlustloser!) Komprimierung (ATRAC 3) bis 80 Minuten Aufnahmen in CD-Qualität und eignet sich hervorragend für wissenschaftliche Tonaufnahmen (Feldforschung), zudem ist sie sehr preiswert sowie lösch- und vielfach neu aufnehmbar. Leider verabschieden sich derzeit (2012) auch die Minidisc-Recorder; die Medien werden in den Fachmärkten verramscht.
Bis hierhin wurde ausschließlich auf "bewegliche" Datenträger aufgenommen - mit dem Nachteil des Verschleißes und - bei den Archiv-CDs - der unsicheren Datenschicht-Lebensdauer. Ab ca. 2005 vollzog sich der Übergang zum Festkörper-Datenspeicher (solid state storage module). Der semiprofessionelle Marantz-PMD 660, mit dem ich ab Juli 2005 meine Live-Konzertaufnahmen machte, speichert auf Compact-Flash-Karten der Typen I und II und ermöglicht mit letzteren Aufnahmen bis 32 (oder sogar 64) Gigabyte, speichert also beispielsweise auf einer 4-GB-Karte rund 8 Aufnahmestunden in bester CD-Qualität. Hernach wird der Karteninhalt mit einem geeigneten Lesegerät in den PC übertragen und kann dort editiert bzw. gemastert werden. Das Einlesen geht naturgemäß viel schneller als das in Echtzeit vorzunehmende Digitalisieren analoger Audioaufnahmen.
Die Aufnahme auf solche Speicherkarten bedeutet also einen beachtlichen Fortschritt; kritisch ist allein die Datensicherheit. Ratsam ist, die Daten nicht nur auf einen PC bzw. ein Laufwerk hin auszulesen, sondern gleich mehrmals zu sichern und mindestens einen gesicherten Datensatz auf "read only" zu setzen.
Es geht aber noch kleiner. Wir kommen zu den Mini-Recordern, die - teils auf internen Speicher, teils auf externe SD-Karten aufnehmen. So z.B. der nur 11,5 x 3,5 x 1,5cm messende Olympus DS-40 (links) mit seinem abnehmbaren Stereo-Kondensatormikrofon, der ausgezeichnete Sprachaufnahmen ermöglicht, dann der vom gleichen Hersteller gefertigte, nur 11,3 x 4,5 x 1,1 cm messende "Digital Voice Recorder" DM-3 (rechts), der sogar HiFi-gerechte Stereo-Aufnahmen in CD-Qualität (als *.wav) liefert, dann der ebenfalls semiprofessionelle, doch sogar von manchen Musiker-Ensembles zu Dokumentationszwecken verwandte, 11x 6 x 3,2cm große Zoom-H2, der mit seinen eingebauten Mikrofonen sogar echtes 2- oder 4-Kanal-Surround realisiert , auf SD-Karten bis 8 GB oder mehr in vielen MP3-Raten und in *.wav aufnimmt und ausgezeichnete Limiter und Aufnahme-Klangbearbeitungswerkzeuge "an Bord" hat. Was das kleine, weniger als 200 Euro "teure" Gerät vermag, dürften meine Aufnahmen des Brandenburgischen Konzerts Nr. 3 (8/2010) und der "Rigoletto"-Ouvertüre (8/2012) im Orchestergraben der Bad Hersfelder Stiftsruine zeigen. Weitere Verbesserungen im Field Recording bringt der neue Zoom-H2n(ext), dessen 5 (!) eingebaute Elektret-Mikrofone nun auch Stereo-MS (Mitte-Seite) ermöglichen; die in diesem Modus erzielbare Qualität dokumentieren zwei (bearbeitete) erste Live-Aufnahmen vom 26.1.2013 aus der Stadthalle Korbach: Antonin Dvoráks "Furiant g-Moll" und Richard Strauss' Cello-Romanze F-Dur. Neu ist hier neben dem wesentlich reduzierten Batterieverbrauch (2x AA Mignon 1,5 V Alkali-Mangan für max.20 h)! auch der eingebaute Kontroll-Lautsprecher. Somit gestattet das Gerät nicht nur professionelle Mikrofonierungen, sondern ersetzt in seiner Universalität den kompletten schweren Aufnahmekoffer, mit dem sich die Exploratoren der 50er Jahre abquälen mußten.
Diese ganze Miniaturisierung führte natürlich auch zum Umdenken bei der Aufnahme-Strategie. Während die im Explorations-"Feld" befragten Gewährspersonen oft eine Scheu vor den aufgestellten Apparaturen (besonders dem meist klobigen Mikrofon) hatten, ist es nun möglich, mit sogenannten "Originalkopf"-Mikrofonen (hochwertige Elektretsysteme, die wie kleine In-Ohr-Kopfhörer getragen werden und Quasi-Kunstkopf-Aufnahmen liefern), mit geräteinternen (Elektret-)Mikros oder mit auf den Tisch gelegten, fast unsichtbaren Grenzflächenmikrofonen aufzuzeichnen, jedesmal in wissenschaftlich und archivalisch voll verwertbarer (CD-)Qualität.
Somit läßt sich heute die gesamte Tonaufnahme-Ausrüstung eines Dialektologen in einem Handtäschchen unterbringen und vollziehen sich alle Schritte der Signalverarbeitung auf einem vergleichsweise winzigen Arbeitsplatz. Als Haupt-Werkzeug genügt ein simpler, nicht einmal 400 Euro "teurer" PC, um die Tonaufnahme bis zur Archivierung zu be- bzw. verarbeiten. Der Computer ersetzt ein zu analogen Zeiten riesiges Labor mit sehr teuren, speziellen 19-Zoll-Einschüben in sogenannten "Racks". Die eingelesenen Tonaufnahmen werden mit teils kostenlosen Programmen abgehört oder editiert, das heißt es werden Stör- und andere unerwünschte Geräusche herausgeschnitten und es wird die jeweilige Aufnahme für eine optimale Archivierung vorbereitet, die dann so vonstatten geht, daß die Tonaufnahme auf einen hochwertigen, goldbedampften CD-Rohling "gebrannt" wird. Nicht zu vergessen, daß beim PC-internen Sound Editing noch vieles andere geleistet werden kann, um z.B. die Tonqualität und Intensität der Aufnahme zu steigern oder um sie in komprimierter, doch nicht weniger hochwertigen Form als MP3s in bestimmten Verzeichnissen zu sichern oder auf ebenfalls winzige "Player" zu speichern, von wo aus sie mit hochwertigen Kopfhörern oder über Stereo-Anlagen abgehört bzw. in Vorlesungen präsentiert werden können.
Das Argument, apparative Feldforschung sei aufwendig und vor allem teuer, zählt also nicht mehr (was man "schon" im Jahre 1985 mit einfachen Geräten erreichen konnte, dürfte die von mir damals erstellte Dokumentation zu den waldeckischen Mundarten beweisen). Jeder, also auch der Studierende, kann sich heute an solchen Forschungsarbeiten beteiligen, was den möglichen "Input" bei größeren Vorhaben vervielfacht.
Was jedoch nach wie vor fehlt, ist eine automatische Transkription, das heißt eine per Computertechnik geleistete automatische Verschriftlichung von Sprach- und Dialektaufnahmen nicht nach vorgegebenen Mustersilben, sondern seriell Laut für Laut und daher objektiv und objektneutral. Auch wenn sicher nicht alle sogenannten Allophone (also z.B. die verschiedenen /r/-Typen) erkannt werden, würde eine rein zeichenorientierte Roh-Transkription bereits den Hauptanforderungen der empirischen Sprachwissenschaft genügen und viele tausende von Arbeitsstunden ersparen. Man hat es versäumt, in den letzten beiden Jahrzehnten, als sich auch und gerade im PC-Sektor enorme Leistungssteigerungen abzeichneten, innerhalb eines großen Forscher-Pools um apparative und programmtechnische Verfahren und um Algorithmen einer Auto-Transkription zu bemühen und zu ersten Formen zu gelangen, die mit den heutigen Ressourcen durchaus zu bewältigen wären.
Ich habe oben von kleinen, handlichen, preiswerten Rechnern gesprochen, den sogenannten Note- und Netbooks, aber noch nicht, was sie in unserem Rahmen leisten und wie ihre Tauglichkeit zu prüfen wäre. Auch kommt es nach meiner bisherigen Erfahrung darauf an, welches sogenannte Betriebssystem und welche (erschwingliche) Software auf solchen Rechnern läuft. Die einfachen, meist mit dem sog. Atom-Prozessor (1,6 GHz) oder, wie beim Packard-Bell Easy Note Butterfly XS (kurz: NCL20) mit dem Celeron (SU 2300, 1,3 GHz) bestückten kleinen Notebooks erreichen natürlich nicht dieselbe Performance wie ein mit ultraschnellem Prozessor und ebensolcher Grafik-Karte bestückter, voll Spiele-fähiger Hochleistungs-PC oder das in puncto Bildschirm- und Tonausgabe noch immer als "Rolls-Royce" unter den Notebooks bezeichenbare Mac Book Pro, sind aber für unsere Zwecke völlig ausreichend. Meine diesbezüglichen Erfahrungen basieren auf vielen hundert oder gar tausend Arbeitstunden mit u.a. mehreren EeePCs, davon hauptsächlich mit einem im März 2009 erworbenen Medion Akoya E 1212, den ich auf 2 GB RAM und eine Betriebsfestplatte von 1 TB hochgerüstet habe, und dem kürzlich erworbenen, oben erwähnten Packard-Bell- Rechner mit 64-Bit-Architektur und 6 (statt original 3) GB RAM. Auf der 1-TB-Platte des fast vier Jahre lang quasi im Dauereinsatz benutzten Akoya 1212 habe ich drei verschiedene Betriebssysteme implementiert: (L)Ubuntu / LXDE (13.04), Windows XP (Home, SP 2) und Windows 8 (Consumer Preview). Als neues Vergleichsgerät zu beiden Rechnern dient der zierliche Medion Akoya E 1230 mit seinem neuen Prozessor (Intel Atom N2600, 2 Kerne, 1,6 GHz), mit 320 GB Festplatte, USB 3.0 und (unter Windows 7 Ultimate) max. 3 GB nutzbarem RAM (mit 4GB-Modul). Dieser kleine Rechner ermöglicht einen gerade auch für schnelle Recherchen und den text- und tonprobenorientierten Lehrbetrieb interessanten Modus operandi, nämlich
Medion Fast Boot.
Das ist eine ultraschnell startende, WLAN- und (je nach Hardware)
multimediafähige, reduzierte Variante des Linux-Derivats Ubuntu. Ich
installiere Fastboot im brandneuen Medion Akoya E 1230; hier läuft Ubuntu
12.04 lediglich in der 32-Bit-Version mit 800x600-Pixel-Grafik. Bislang
scheiterten verschiedene Versuche (Installation von Ubuntu 12.10,
Kernel-Upgrade auf 3.5, Einbindung des Cedar Trail drm driver in
DKMS format), hier 1024x600 Pixel zu aktivieren (auch das im Mai 2013
installierte neue Ubuntu 13.04 brachte keine Änderung). Auch unter
VMWare gab es keinen Erfolg: nach langem, hakeligem Lubuntu12.10-Setup
(von *.iso) gelang zwar eine Chromium-Browser-Session, doch hing der Computer
nach dem VMWare-Ausstieg und ließ sich nur per Kaltstart rebooten.
Der Rechner hat für Fastboot eine Option im (beim Booten mit
<F2> erreichbaren) Setup; in den auf D:\tools untergebrachten
Installations-Dateien befindet sich (möglicherweise aus *.exe oder *.zip
auszupacken) eine längere *.img-Datei, die als ion.img in
D:\VR-pulse\ zu kopieren ist. D:\ darf als Partition (Laufwerk) nicht
komprimiert sein.
Nach dem Neustart geht es mit <F9> zur Fastboot-Installation, die einige
Minuten dauert; dabei wird ein spezifisches Unterverzeichnis
\VR-pulse\vrpulse-data\ eingerichtet und darin als endgültiges,
hardwarebezogenes Fastboot-Betriebssystem opt.img generiert;
ferner werden 2 Subdirectories \Downloads und \email eingerichtet. Bald erscheint
in der Statuszeile rechts oben ein WLAN-Icon; von hier aus ist das
verfügbare WLAN anzuwählen und per Passwort einzurichten. Wenige
Sekunden später ist es bereit. Wir haben nun den unten abfotografierten
Bildschirm:
Sodann öffnen wir den Google-Chrom-Browser und bekommen folgende
Meldung:
Möchten Sie auf Google Chrome upgraden (zur Unterstützung von
Adobe Flash Player und PDF Reader)? Anmerkung: Dies erfordert eine aktive Internet-Verbindung. |
Unbedingt <J(a)>; es werden von einem Server http://archive.ubuntu.com/ubuntu/ natty/universe... (also dem Repository von Ubuntu Natty Narwhale 11.04) die nötigen Dateien geholt, um danach den Browser einzurichten. Dasselbe gilt für den VLC-Player, auch für ihn sind (nach Ubuntu-Manier) weitere Dateien zu holen. Thunderbird Mail hingegen bedarf nur noch der nutzerspezifischen Konfiguration (mit Name, Mailadresse und Passwort), dann ist alles fertig - zum sofortigen Arbeiten oder einem Restart.
Wir booten neu und sind mit <F9> nach wenigen Sekunden im Fastboot-Betriebssystem, auch das WLAN hat sich eingeklinkt.
Noch ein Wort zum Medion Akoya E1230: der kleine, schnelle Rechner
ist ein Musterbeispiel gut durchdachter Mikro-Architektur und Handhabbarkeit.
Einen unbeabsichtigten Fall aus ca. 70 cm Höhe (in vollem Betrieb)
überstanden Elektronik und Festplatte, nicht jedoch das
LCD-Display: es zeigte dasselbe Zerstörungs-Muster wie der
Hauptmonitor eines portablen
Medion-DVD-Players MD82767 nach längerer Standzeit. Der Display-Rahmen
läßt sich mit einem scharfen Messer auseinanderteilen; die in
China von AU
Optronics hergestellte, ca. 50 Euro kostende Display-Einheit ("LCD-Matte")
B 101 AW06 V.0 hat ihren vielpoligen Micro-Connector an der
(weiß leuchtenden) Rückseite; das zu ihm hin führende vieladrige
Flachkabel ist am unteren Displayrand fixiert. Zum Austausch muß versucht
werden, die Display-Tafel schräg so aus dem Rahmen zu klappen, daß
das Flachkabel nicht beschädigt wird.
Rechts (Ableitung sw) und links Ableitung ws) des in SMD-Technik
gefertigten, via 6poliges Mini-Kabel versorgten audiovisuellen
WebCam-Moduls (Bild rechts) sitzen am oberen Bildschirmrand die
WLAN-Antennen PSAM 001. Falls das Display nicht ausgetauscht werden
soll, läßt sich dank seiner untadeligen Grafik das Netbook
natürlich über die VGA-Buchse an einem externen Monitor betreiben.
Weiteres zur praktischen Arbeit mit PCs
Hier fallen immer wieder bestimmte wichtige Prozesse an (und ergeben sich
Aspekte), auf die ich nun eingehe:
2. Einen erweiterten Modus des Recherchierens und / oder Editierens bietet
das Arbeiten mit VMWare. Das Grundprogramm (der VM-Player) und die
sog. VMWare Tools sind kostenlos abrufbar. Vorausgesetzt, genügend RAM
(min. 2 GB) ist an Bord, wird unter VMWare als "virtuelle Maschine" ein zweites
Betriebssystem (vom CD-Laufwerk) installiert und eingerichtet, so z.B. (wie
meine beiden Fotos zeigen) (in einer nicht zu großen separaten Partition)
unter Windows 7 (links) auf einem virtuellen Plattenspeicher
von 15-20 GB ein Windows XP professional (rechts) mit 1 GB RAM;
hier können von externen Devices (CD/DVD-Laufwerk, USB-Stick) oder nach
Netz-Downloads die üblichen Tools und Programme installiert werden,
z.B. der Total Commander als File Manager,
/windows/system32/dfrg.msc als Defragmentierer, Sea Monkey
als Browser, Winamp lite als universeller Player und (wohl eher als
Luxus) das komplette Microsoft Office 2007. Mit einem Klick
läßt sich zwischen dem Host (Windows 7) und dem Virtuellen System
hin und her schalten. Textpassagen werden aus dem VM-System per Copy &
Paste in einen Editor des Host-Systems übernommen. Für Lautstärke
und Bildformat gelten die Host-Parameter. Eine unter VMWare abgerufene Tondatei
bleibt hörbar, wenn auf den Host umgeschaltet wird. Im exclusive
view Modus füllt der virtuelle Desktop den ganzen Bildschirm aus
(womit der Eindruck entsteht, der Computer arbeite nun tatsächlich nur
mit dem virtuellen System), <Ctrl-Alt> holt die obere Steuer-Leiste
(Statuszeile) der VM Workstation zurück.
Es lohnt sich kaum, in einfacheren Rechnern wie dem Medion Akoya E 1230 Virtuelle
Maschinen einzurichten, weil hierdurch ggf. die Systenmstartzeit verlangsamt
und (auch ohne aktivierte VMs) der RAM-Verbrauch erhöht wird. In
anspruchsvolleren Geräten wie z.B. dem mit i7-Prozessor und max. 8 GB
RAM ausgerüsteten Samsung NP-RF511 lassen sich als Virtuelle Maschinen
z.B. ein problemlos funktionierendes Ubuntu *) und sogar auch
das Apple-Betriebssystem OS X Mountain Lion einrichten und sogar
aktualisieren. Programme wie Apple's Safari laufen hier einwandfrei,
vorausgesetzt, die Partition, auf der die Virtuelle Maschine läuft,
ist "sauber" und gut gewartet.
*) Im Mai 2013 gelang es, mittels einer neuen, modifizierten wubi.exe (2.559.512
Bytes) das neue Ubuntu 13.04 sowohl im Samsung RF 511 wie im Packard-Bell
Easy Note NCL 20 zu installieren.
Rechner |
Software (nur Beispiele) |
Viren- Scanner |
Aufgabe(n) |
PC 1: Netbook (Atom 1,6 GHz) |
mehrere Browser (Option: anonymes Surfen), Total Commander VLC-Player, CCleaner, Defrag |
X | Informationsgewinnung Google-Recherchen Mailing (mit Attachments) |
PC 2: Netbook (Atom 1,6 GHz) |
Texteditor, MS-Office und / oder Open Office Total Commander, CCleaner, Defrag |
X | Editing: Erstellung von Texten, Präsentationen, Tabellenkalkulation etc., Daten-Upload |
PC 3: Notebook oder Desktop (MM-fähig) |
z.B. Adobe Audition Pro (mit Plugins) Standalone-Video-Schnittsoftware, CCleaner, Total Commander, Defrag |
AV-Signal-Messungen (z.B. Phonetik), AV-Bearbeitung (Korrekturen, Sound- Design), Digitalisierung, Datensicherung |
PCs 1 und 2 arbeiten softwaremäßig ohne Mehrkosten
(Ausnahme: MS-Office), während PC 3 als Meß- und
Prozeßrechner u.U. kostspielige Sonderprogramme an Bord hat, ohne
Netzanbindung arbeitet und daher keinerlei (systemverlangsamenden)
Virenscanner benötigt, sofern regulär erworbene Software
benutzt und keine Fremdmaterialien verarbeitet werden. Der wissenschaftliche
Workflow wird zudem durch das parallele Arbeiten mit allen 3 PC-Systemen
enorm gesteigert. Für den Transfer/Upload von mit PC 3 erarbeiteten
Materialien werden ausschließlich frisch formatierte, softwarefreie
Datenträger (USB-Sticks, SDHCKarten, externe Festplatten) verwendet.
Das sind, in groben Zügen, einige der von uns Geisteswissenschaftlern
genutzten, PC-orientierten Arbeitsformen. Was die einzelnen Ein- und
Ausgänge der PCs angeht, so dürfte wohl Klarheit herrschen - auch
darüber, daß neuerdings auch in kleinere Note- und Netbooks
USB3-Interfaces eingebaut werden, die natürlich einen weit besseren
Daten-Durchsatz ermöglichen als ihre Vorgänger. USB 3 ist allerdings
nur wichtig für Leute, die sehr viele und große Mengen von Dateien
auf externen Festplatten sichern und die auch Programme von diesen starten
- was durchaus auch via USB 2 möglich ist, so habe ich öfter
Audio-Editing und sogar die auch in meiner Deutschen Landes- und
Kulturkunde für Ausländer didaktisch genutzte
Flugsimulation von externen
Festplatten aus betrieben. Überhaupt eignet sich der Microsoft-Flugsimulator
9, eines der komplexesten und umfangreichsten Programme, hervorragend dazu,
die Multimediafähigkeit eines PCs objektiv zu testen - von dem noch
anspruchsvolleren Nachfolger FS X ganz zu schweigen. Wer eine Szenerie wie
den Flughafen Rhein-Main ohne Bild-Ruckeln überfliegt, hat einen in
jeder Hinsicht untadeligen PC. Nur wenige auch unter den teuren tragbaren
PCs können dies leisten, für geisteswissenschaftliches Arbeiten
sind Computer-Spiele ohnehin ein Luxus und ohne Belang.
Soll der PC absolut sicher und zuverlässig arbeiten, ist auch seine Memory-Bestückung ausschlaggebend. Nur erstklassige Bausteine (Chips) von renommierten Herstellern dürfen "an Bord" sein, wenn nicht ab und zu die gefürchteten "Blue Screens" das Arbeiten versauern sollen. Wer sich traut, Memory-Chips selbst auszuwechseln, sollte zuvor den Akku-Pack herausziehen und danach etwas warten, um den PC stromlos zu machen. Vor dem Herausziehen der empfindlichen Bausteine (deren Kontakte keinesfalls berührt werden dürfen) sollte man sich in irgendeiner Form "erden" und keine Stoffe anfassen, deren Berührung eine den Chip augenblicklich zerstörende elektrostatische Aufladung hervorrufen könnte. Nach dem Einsetzen der neuen Memory-Streifen den Akkupack einsetzen und das Gerät starten. Kommt der erste System-Bildschirm und gibt es keine Warntöne, war das Upgrade erfolgreich.
Ebenso grundsätzlich wichtig sind das Betriebssystem und arbeitsfördernde Hilfsprogramme, die sog. Tools. Viele hilfreiche Tools werden im Internet angeboten. Wer mehrere Rechner besitzt, sollte sie zunächst auf einem "Neben-PC" testen, um den wichtigen Hauptrechner nicht zu gefährden. In den letzten vier Jahren machte ich eine Reihe umfangreicher vergleichender Experimente mit Windows XP, Windows 7, Windows 8, verschiedenen Ubuntu-Versionen und, auf einem Mac Book Pro, den letzten Versionen von Mac OS X; eine knappe Hälfte des Mac wurde per Bootcamp für Windows Vista eingerichtet, das, ebenfalls in der "Tiny"-Version, auch auf dem Medion Akoya gelaufen war. Zusammenfassend läßt sich feststellen:
Unerläßlich ist als "Daten-Hygiene" ein in kürzesten Abständen vorgenommenes Defragmentieren aller Partitionen bzw. Logischen Laufwerke - am besten jeden Tag und / oder nach dem Installieren zusätzlicher Software. Zuvor sind alle temporären und sonstwie unnützen Dateien zu löschen. Dafür gibt es ein ebenfalls kostenloses Tool: den CCleaner; der entfernt auch Cookies und andere Browser-Spuren, die dem Benutzer zum Nachteil werden können. Vom Defragmentieren der USB-Sticks und SD-Karten wird allerdings abgeraten; durch diesen aufwendigen, an die Substanz gehenden Prozeß könnten sie zerstört werden. Dasselbe gilt für Solid-State-Festplatten (SSDs), die in jüngster Zeit immer zuverlässiger und preisgünstiger geworden sind.
Wer sich traut, kann viele auf 32-Bit-Basis operierende Programme (*.exe) und Bibliotheken (*.dll) mit UPX packen und so auf den Laufwerken viel Platz gewinnen. Daß UPX-gepackte Programme langsamer starten, ist mir noch nie nachteilig aufgefallen. Wer dennoch die "Originale" zurückhaben will, kann das mit <UPX -d (Datei)> erreichen.
Bekanntlich lassen sich unter Windows alle Laufwerke auch komprimieren, wobei geeignete Dateien ähnlich wie mit UPX (oder als *.-zip) behandelt und bei Gebrauch entpackt werden. Wird dieser Prozeß auf einem Laufwerk mit sehr vielen Dateien angewandt, kann das u.U. einen Tag lang dauern, auf jeden Fall sollte dann das komprimierte Laufwerk defragmentiert werden, wobei der Nutzer sein blaues Wunder erlebt, denn die ganze Datenstruktur ist total durcheinandergeraten und es gibt viele rote (d.h. total fragmentierte) Zonen. Daher empfiehlt es sich, gleich zu Anfang eine leere Partition mit oder ohne die Option "Komprimierung" zu formatieren. Keinesfalls jedoch das aktive Start-Laufwerk (mit dem Betriebssystem) komprimieren, danach kann es passieren, daß der Rechner nicht mehr bootet.
Die Arbeitsgeschwindigkeit besonders kleinerer Rechner hängt auch davon ab, ob ein - und welcher - Virenscanner im Hintergrund mitläuft: heute, und besonders unter Windows, ein Muß, gibt es doch mittlerweile hunderttausende von teils höchst aggressiven Viren, die, als sog. Root-Kits, sogar die unterste Ebene des Betriebssysstems so schädigen können, daß der Rechner ganz oder teilweise unbrauchbar und ein Tausch der Festplatte nötig wird. Ich habe mit dem ebenfalls kostenlosen Avira gute Erfahrungen sammeln können. Man sollte allerdings bedenken, daß (sofern Internetverbindung vorliegt) dieses Programm jeden Tag die Konstellation des Computers prüft und Updates hinzuinstalliert, was bei einigen parallel laufenden Prozessen (zum Beispiel dem Brennen von CDs / DVDs) stören kann. Deshalb sollte bei wichtigen Dateisicherungen oder Brenn-Prozessen der PC vom Daten-Netz getrennt werden, wozu der LAN-Stecker gezogen oder das interne WLAN-Modul deaktiviert werden muß. Man muß ja nicht ständig am Internet hängen und kann immer dann offline arbeiten, wenn keine Informationen von außen benötigt bzw. nichts nach außen transportiert werden soll. Dann können wenigstens auch keine Viren in den PC gelangen, wovor man grundsätzlich nicht 100%ig sicher ist.
Wird der Rechner nur oder überwiegend für nicht-internetgebundene Aktivitäten genutzt, sollte das Automatische Update deaktiviert werden - es nervt ungeheuer, wenn man nicht zu kontinuierlichem Arbeiten kommt oder gar eine wichtige Präsentation dadurch gestört wird, daß wegen irgendwelcher kürzlich im Hintergrund geladener, als wichtig deklarierter Updates der Rechner zum Abschalten und Wiederstarten gezwungen und zu langwieriger, oft stundenlanger Installation der Updates herangezogen wird.
Beobachten Sie öfter die Festplatten-Kontroll-LED. Flackert sie, auch wenn nichts geladen oder abgespeichert wird, ist dies ein Zeichen für im Hintergrund laufende Prozesse (mit denen möglicherweise Ihr Rechner ausgespäht wird!). Mit <Ctrl-Alt-Del> gelangen Sie in den Task Manager, der Sie darüber informiert. Es sollten möglichst alle - oft als "Wunderheiler" offerierten Hintergrund-Kontrollprogramme (z.B. Geek Buddy) deaktiviert werden - es sei denn, Sie legen Wert auf einen langen Systemstart und hohen RAM-Verbrauch. Sind Sie nicht sicher, was da alles an TSRs mitläuft, gehen Sie, z.B. mit einer (weniger aufwendigen, also nicht zu neuen) TuneUp-Version in den Startup Manager und deaktivieren bzw. löschen Sie dort alle Programme, die nicht zwingend zum Betriebssystem und (etwa als Treiber) den PC-Komponenten gehören.
Wichtig beim Arbeiten mit vor allem kleineren PCs ist deren
Kühlung - vor allem wenn sehr rechenintensive Programme "gefahren"
werden und / oder der PC den ganzen Tag (und / oder die Nacht) hindurch
läuft. Nicht alle Notebooks haben hierzu genügend Abstand von der
Tisch-Oberfläche, weswegen sich empfiehlt, mit zusätzlichen Gummi-
oder Filzfüßen den Abstand zu vergrößern. Es gibt aber
auch Software wie CPUIdle, die in Arbeitspausen den Prozessor so gut
wie möglich herunterfährt. Auch hilft es, unnötige, beim
Computerstart aktivierte Hintergrundprogramme (wie Kalender, Audioplayer
etc.) zu deaktivieren, was auch das Booten beschleunigen kann. Die
Energie(spar)-Optionen lassen sich ohnehin in der sog. Systemsteuerung
individuell einstellen. Doch: Vorsicht bei zu sparsamen Optionen, so kann
ein zu schnelles, vorzeitiges Abschalten der Festplatte wichtige
Langzeitspeicher-Vorgänge sabotieren!
Grundsätzlich gilt: ein kleines Note- oder Netbook ist kein
Dauer-Rechner.
Datengewinnung aus Fotos und Filmen
In meinen Anfangsjahren am "Deutschen Sprachatlas" hatten wir ein richtiges Fotolabor mit chemischer Entwicklung und sogar einem Repro-Tisch. Mit einer edlen Leica wurde auf Ilford-PAN F fotografiert, einem der damals besten Schwarzweiß-Negativfilme. Natürlich wurden in den frühen 70er Jahren des vergangenen Jahrhunderts mit sogenannten Umkehr-Filmen auch viele Farbdias gemacht und so wissenschaftlich relevante Exkursionen (wie die im August 1973 in die Südschweiz und nach Oberitalien) dokumentarisch festgehalten, weshalb wir auf diese Weise noch heute z.B. Porträts von Dialektsprechern aus dem walserdeutschen Gebiet besitzen (hier meine mit dem Grundig TK 3200 gemachten Tonaufnahmen dazu).
Gefilmt wurde nicht, das wäre zu aufwendig gewesen, obwohl es mit amateurmäßigen Movie-Kameras und Magnet-Tonspur möglich gewesen wäre. Es gibt ja bereits seit langem Überlegungen dahingehend, zum Beispiel einen Dialektsprecher während seiner Äußerung zu filmen und synchron die Mundbewegungen seiner Sprachproduktion festzuhalten (Röntgenfilme von Sprechakten gab es schon im frühen 20. Jhd.). Doch hätte es damals, wie bei Tonaufnahmen, noch keine Möglichkeiten gegeben, solche Kurzfilme zu digitalisieren und entsprechend auszuwerten.
Erst um die Jahrtausendwende nahm die Digitalisierung auch Einzug in die Foto- und Filmwelt. Die ersten Digitalkameras hatten weniger als 1 Megapixel an Auflösung und galten eher als Spielzeug denn als Alternative zu den höchst feinkörnigen Schwarzweiß- und Farbfilmen. Das galt auch für die ersten digitalen Moviekameras. Im Herbst 2002 machte ich (auf privater Basis) mit einer preiswerten hp photosmart 318 meine ersten Versuche in digitaler Fotografie und filmte zum ersten Mal fünfeinhalb Jahre später mit einer gebrauchten Mini-DV-Moviekamera Panasonic NV-DS 29 (auch um einen der Kurzfilme am 15.4.2008 in meiner "Deutschen Landes- und Kulturkunde für ausländische Studierende" zu präsentieren). Inzwischen sind das analoge Fotografieren und Filmen völlig in den Hintergrund geraten; preiswerte Mini-Digitalkameras mit bis zu 16 Megapixel und der Fähigkeit zum Filmen in High Definition sind bereits ab 100 bis 150 Euro erhältlich. Die nur ca. 9,3 x 5,3 x 1,8 cm messende und 152 g schwere Panasonic Lumix DMC-FS18 mit Leica-Objektiv (rechts) fotografiert mit 16 Megapixel und filmt in HD (720p). Die etwas größere, mit GPS und 20x optischem Zoom bestückte, voll explorationstaugliche "Reise-Kamera" Lumix DMC-TZ31 ermöglicht echte AVCHD-Videos (1080p) mit Stereo-Ton (Foto-Beispiele in meiner Facebook-Seite); die nur unwesentlich größere DMC-TZ61 bietet sogar 30-fachen optischen Zoom und hat über dem LCD-Display sogar einen kleinen, an das Auge anpaßbaren elektronischen Sucher. Die als Nachfolgerin der HDC-TM99 für rund 450 Euro angebotene, etwa 12 x 6,5 x 5,2 cm große und (incl. Akku) nur 311 Gramm wiegende Panasonic HC-V 707 mit bis 46x ptischem Zoom fotografiert mit 6,1 Megapixel und filmt in HD (AVCHD, max. 1080i) und professionell anmutendem Stereo-Ton (Beispiele hierzu in meinem YouTube-Kanal wnaesermr). Zudem hat sie (wie ihre oben erwähnte Vorgängerin) einen Anschluß für externe Mikrofone und eignet sich auch damit bestens für anspruchsvolle audiovisuelle Feldforschung.
Als Datenträger dienen die kleinen SD- bzw. SDHC-Karten mit Kapazitäten bis 32 (oder SDXC = 64) Gigabytes. Das bedeutet nichts anderes als daß heute auch mit kleinem Budget hochwertige Fotos und Filme erstellt, diese in den Computer eingelesen, dort beliebig weiterverarbeitet und schließlich auch wissenschaftlich verwendet werden können. Das weite Anwendungsspektum solcher kombinierter Foto- und Moviekameras gestattet nun, z.B. in kleiner Auflösung Dialekte oder andere relevante Aussagen audiovisuell zu dokumentieren und didaktisch zu präsentieren; so wirkt ein Mundartsprecher in seiner heimischen Umwelt viel authentischer und daher überzeugender als lediglich in einer Tonaufnahme. Außerdem gestattet die mit solchen kompakten Kameras ebenfalls mögliche Serienbild-Aufnahme, die Gestik und Mimik von Sprecher/innen in kleinsten Schritten zu dokumentieren. Das oben erwähnte kompakte Notebook Packard-Bell Easy Note Butterfly XS von 2012 und seine in den folgenden Jahren vorgestellten, teils noch preiswerteren Konkurrenten sind in der Lage, alle diese Foto- und Filmformate zu verarbeiten.
So weit nur einige Andeutungen, aus denen schon jetzt hervorgehen dürfte, daß mit Digitalisierung und Miniaturisierung bei gleichzeitiger eklatanter Leistungs-Steigerung auch den angewandten Geisteswissenschaften ganz neue, revolutionäre Arbeitstechniken zur Verfügung stehen und daß zu deren Realisierung auch kleinere Budgets ausreichen.
(wird fortgesetzt; begonnen: 3.8.2012, Stand: 23.7.2015)
Alle Fotos (c) W. Näser
(c) Dr. Wolfgang Näser, Marburg
Disclaimer: Bezüglich der erwähnten technischen Angaben
und Ratschläge wird jede Haftung ausgeschlossen.