Leseproben aus "Netzleittechnik", Teil 2, Systemtechnik
Aus Kapitel 1, Rechnertechnik Hauptseite
Rechnertechnik besteht aus drei Säulen:
Hardware ist der Ort, wo verarbeitet wird. Sie besteht aus mehreren Komponenten:
Prozessoren, die alle Verarbeitungen ausführen, und dafür ständig mit einem schnellen Arbeitsspeicher korrespondieren,
Speichermedien, in denen Software und Daten nicht flüchtig hinterlegt sind,
Schnittstellen und Peripheriegeräte für die Ein-/ Ausgabe und Übermittlung,
leistungsfähige Verbindungen wie Chipsätze und Busse zwischen den Bausteinen.
Software gibt vor, wie verarbeitet wird. Sie existiert in zwei Arten von Programmen, die aus Folgen von Arbeitsanweisungen (Befehlen) an die Prozessoren bestehen:
Betriebssysteme, die das Zusammenspiel der verschiedenen Hardwarekomponenten und Programme organisieren,
Anwenderprogramme, die die eigentliche Datenverarbeitung steuern.
Daten sind das, was verarbeitet wird. Für sie wurde die Datenverarbeitung geschaffen. Im Rechner als Bitmuster organisiert, können Daten außerhalb beliebig dargestellt werden, sie sind die im Teil 1 beschriebenen Informationen. Für die Verarbeitung durch Programme kann man sie einteilen in:
Eingangsdaten (Rohdaten), die verarbeitet werden sollen,
Verarbeitungsergebnisse, die ausgegeben oder weiter verarbeitet werden.
Software und Daten sind beide in denselben Speichermedien des Rechners hinterlegt, deshalb werden sie manchmal - auch gedanklich - nicht sauber voneinander getrennt. Eine qualifizierte Datenverarbeitung sollte Software und Daten getrennt ablegen.
Seit Konrad Zuses Entwicklung des ersten programmgesteuerten Rechners 1941 haben die Prozessoren und Speicherelemente von Rechenanlagen eine unglaubliche Miniaturisierung erfahren. Alle zwei Jahre verdoppeln sich Speicherplatz und Verarbeitungsgeschwindigkeit bei gleichem Preis (Mooresches Gesetz). Diese Entwicklung hat zwei einschneidende Folgen:
Am Markt überleben nur wenige, universell einsetzbare Standardsysteme, die sowohl den kommerziellen und technischen Bereich ausfüllen als auch zunehmend privat genutzt werden. Die vor zehn Jahren entstandenen Leitstellen waren größtenteils noch mit speziellen – und entsprechend teuren – Prozessrechnern ausgestattet, doch wurde an dieser Stelle bereits prognostiziert, dass künftig nur noch Standardsysteme zum Einsatz kommen würden. Die Entwicklung hat diese Voraussage bestätigt.
Die Schnelligkeit der Entwicklung führt in kurzen Abständen zu immer leistungsfähigeren Bausteinen, die zwar für eine gewisse Zeit noch nach unten kompatibel sind, doch ihre „power“ nur in einer angepassten Umgebung voll entfalten können. Deshalb kann man zwar begrenzt den Speicherplatz erweitern, doch verbessert nur der Tausch ganzer Geräte die Leistung. Grundsätzlich ist das Erneuern von Einzelelementen sinnlos. Die geringen Preise für Standardhardware erleichtern eine komplette Erneuerung.
Mit geringen Unterschieden besitzen alle Standardrechner die gleiche Architektur mit den folgenden Komponenten:
|
Software ist eine Folge von in einem Speicher hinterlegten Arbeitsanweisungen (Befehlen) an die Hardware. Jede von ihnen besteht aus einem bestimmten, dem Prozessor bekannten Befehl und einer Speicheradresse für Daten. Der Prozessor holt jede Anweisung in sein Eingangsregister, liest sie und aktiviert den in ihm „verdrahteten“ Ausführungsweg für den Befehl. Meist ist diese Aktion mit einem Speicherzugriff auf die angegebene Adresse verbunden. Zwei Gruppen von Befehlen werden unterschieden:
Organisationsbefehle, die den Lauf des Programms und den Datentransport zwischen den Hardwarekomponenten steuern,
Verarbeitungsbefehle, die den Prozessor anweisen, was mit den Daten zu tun ist.
Software kann in zwei Gruppen mit unterschiedlicher Aufgabenstellung eingeteilt werden:
Betriebssysteme, die das Zusammenspiel der verschiedenen Hardwarekomponenten und Programme organisieren,
Anwenderprogramme, die die eigentliche Datenverarbeitung steuern.
Allein mit der Hardware und den wenigen im BIOS gespeicherten Abläufen kann kein Rechner einen sinnvollen Betrieb führen. Er braucht ein seiner Architektur angepasstes Programm, das die Abläufe innerhalb des Rechners und mit den Peripheriegeräten organisiert. Dieses Programm wird allgemein Betriebssystem genannt. Moderne Betriebssysteme enthalten einen kleinen Kern speziell für den Rechnertyp, den sie organisieren, und ein großes Umfeld weiterer Funktionen, wie z. B.:
Verwalten der Speichermedien,
Einrichten von Massenspeichern zur Datenverarbeitung (formatieren),
Verwalten der E/A-Geräte und Einstellen auf nationale Spezifika,
Erkennen und Einbinden neuer Geräte (plug and play, Treiber),
Installation neuer und De-Installation nicht mehr benötigter Anwenderprogramme,
Verwalten von Externschnittstellen, DFÜ,
Einrichten und Löschen von Ordnern, Lesen ihrer Inhaltsübersicht,
Verwalten und ggf. Löschen von Dateien,
Kopieren von Dateien und Verschieben zwischen Speichermedien und Verzeichnissen,
Aufrufen und Koordinieren von Anwenderprogrammen,
Datenaustausch zwischen Programmen (ausschneiden, kopieren, einfügen),
Einstellen von Datum und Uhrzeit,
Verwalten von Zugangsrechten bei sicheren Betriebssystemen,
Verwalten von Rechnernetzen,
Zugang ins Internet,
Schutz des Rechners durch eine Firewall,
Darstellen von Bildern, Musikstücken, Videos.
Die Anwendersoftware muss sich in erheblichem Maß auf das Betriebssystem einstellen. Ist dieses einheitlich, können dieselben Anwendungen breiter eingesetzt werden und ermöglichen einen breiten Datenaustausch. Mit einer großen Zahl darauf ablauffähiger Anwendungen wird dann das Betriebssystem wiederum für einen größeren Anwenderkreis interessant. Auch erfordern einheitliche Betriebssysteme nur wenige Treiber für Peripheriegeräte. Aus diesen Gründen werden sich auf längere Sicht nur die beiden breit anwendbaren und weit verbreiteten Betriebssystemfamilien Windows und Unix im Markt behaupten.
Rechner und vor allem die Software können durch bösartige Programme infiziert werden. Nach ihrer Wirkungsweise werden sie eingeteilt in:
Viren,
Würmer,
Trojanische Pferde.
In den Anfangszeiten der PC-Technik wurden solche Infektionen hauptsächlich über Disketten unsicherer Herkunft übertragen, heute kommen sie überwiegend aus dem Internet, wodurch ihre Zahl und Ausbreitungsgeschwindigkeit stark angestiegen ist. Vor derartigen Infektionen schützen Antivirenprogramm zu einem hohen Prozentsatz, wenn man regelmäßig die vom Hersteller bereitgestellten aktualisierten Virensignaturen einspielt. Einen Schutz gegen Infektionen bietet – besonders in großen Netzen - auch eine Firewall. Betriebssysteme für Privatanwender haben einfache Firewalls integriert.
In jedem Netzleitsystem werden umfangreiche Datensammlungen geführt.:
die im Datenmodell hinterlegte statische Beschreibung des Netzes,
die Hintergrund-Strukturen der Netzbilder,
Codelisten zur Umsetzung zwischen verschiedenen Datenformaten,
im Prozessabbild hinterlegte aktuelle Zustände der variablen Objekt-Attribute,
ggf. Kopie-Prozessabbilder für Simulationen,
im Archiv abgelegte vergangene Ereignisse und Werteverläufe.
Diese Daten müssen zu einem großen Teil
bei der Erstellung des Leitsystems eingegeben und bei Netzänderungen angepasst und geprüft werden,
so hinterlegt werden, dass alle Programme jederzeit schnell auf sie zugreifen können,
so gesichert werden, dass sie nach einem Systemausfall weiter benutzbar sind.
Zur Verwaltung der Datenbank und Organisation der Zugriffe werden Datenbank-Management-Systeme (DBMS) benutzt, das sind normale Softwareprogramme mit speziellen Aufgaben:
Verwalten der Datenbankstruktur und Organisieren der Datenablage, ggf. auf verschiedenen physikalischen Speichermedien,
Prüfen der Zugriffsberechtigungen der Anwenderprogramme für Lesen und Schreiben,
Abwickeln von Lese- und Schreibaufrufen berechtigter Programme,
Zusammenfügen von Datensätzen nach vorgegebenen Kriterien,
Bearbeiten von Abfragen nach verknüpften Daten,
Filtern von Daten nach vorgegebenen Kriterien,
Erstellen von Berichten über Dateninhalte,
zyklisches Prüfen der Konsistenz von Datenkopien.
Verdichten von Datensätzen über die Zeit,
Überwachen und Anzeigen des Füllstandes.
Zeitunkritische Dateien, wie z. B.
Quelldaten,
statische Beschreibungen,
Archive
werden ausschließlich in relationalen Standarddatenbanken geführt. Zeitkritische Vorgänge, wie die Übernahme zahlreicher Prozessinformationen bei Störungen, die topologische Prüfung der Schaltbedingungen vor Steuerungen und die Anwahl eines umfangreichen Bildes mit vielen Objekten stellen erhebliche Anforderungen an das DBMS. Sollen dann noch Netzgruppen farbig angezeigt werden, geht der Suchvorgang weit über das angewählte Bild hinaus bis zu den Einspeisungen vom Vorversorger. Weil diese Suchvorgänge vorwiegend im dynamischen Prozessabbild ablaufen, legen manche Hersteller dieses in speziell entwickelten Echtzeit-Datenbanken ab. Aufgrund der immer schnelleren Rechner wird aber inzwischen auch das Prozessabbild auf leistungsfähigen Standarddatenbanken realisiert.
Die in einem Rechner hinterlegten Daten besitzen wegen ihrer aufwendigen Eingabe einen hohen Wert. Besonders groß ist der Wert der im Prozessabbild eines Leitsystems hinterlegten Schaltzustände für die Betriebsführung. Zwar lassen sich die fernübertragenen Zustände leicht abfragen, doch die gerade in Verteilungsnetzen zahlreichen handnachgeführten Zustände können nach einem Systemzusammenbruch mit Speicherzerstörung nur durch Begehen aller Ortsnetzstationen wiederbeschafft werden. Wirklich sicher sind Daten nur bei mitlaufender oder zyklischer Sicherung auf Datenträgern, die sich bei einem Zusammenbruch außerhalb des Systems befinden, z. B:
herausnehmbare Platten,
Magnetbänder, die den Schreibkopf verlassen haben.
Aus Kapitel 2, Kommunikationstechnik Seitenanfang Hauptseite
Jede Informationsübertragung benötigt einen Kanal, das ist eine Verbindung zwischen einem Sender und mindestens einem Empfänger
auf einem physikalischen Medium,
abhängig vom Vermittlungsverfahren dauernd oder zeitweise bereitgestellt,
und mit einem Träger beschaltet, auf den die Signale abhängig vom Übertragungsverfahren analog oder digital moduliert werden.
Jedoch ist die Verbindung über einen Kanal nur die physikalische Grundlage. Die Kommunikationsregeln müssen in einem Protokoll vereinbart werden, das beide Seiten kennen, und das in allen modernen Datenübertragungsverfahren aus mehreren übereinander liegenden Schichten besteht. Die unterste Schicht ist die Schnittstelle, das ist unabhängig von der Anwendung die Gesamtheit der Festlegungen:
der Zahl und physikalischen Eigenschaften der Schnittstellenleitungen einschließlich der Steckverbindungen,
der auf den Schnittstellen ausgetauschten Signale einschließlich ihrer Potenziale.
In weiteren Schichten, die jeweils für Teilaufgaben zuständig sind, wird die Bedeutung bestimmter Bitfolgen sowie die Syntax und Verhaltensregeln zwischen den Kommunikationspartnern festgelegt, so dass schließlich umfangreiche Datenblöcke zwischen den Anwendungsprogrammen sicher übertragen werden können. Dabei sollte von vornherein klar sein, dass nur auf dem der Schicht 1 unterlagerten Kanal die tatsächliche Datenübertragung in Form von Bitströmen stattfindet. Alle darüber liegenden Schichten sind nur virtuelle Protokollaufsätze, die aber ebenfalls miteinander kommunizieren. Ebenso klar sollte sein, dass über den obersten Protokollschichten auf beiden Seiten die eigentlichen Anwendungen liegen, zwischen denen letzten Endes Daten ausgetauscht werden. |
Die weltweit am weitesten verbreitete Protokollfamilie ist TCP/IP, die auch zur Grundlage des Internet wurde. Sie wird in allen lokalen und weiträumigen Netzwerken benutzt und hat als gewachsenes System keine streng definierten Schichten, doch agieren die einzelnen Protokolle schichtähnlich miteinander. Über der als vorhanden vorausgesetzten Schnittstelle lassen sich vier weitere Schichten erkennen. Ein sehr streng definiertes Protokoll ist das aus sieben Schichten bestehende ISO/OSI-Modell, das jedoch wegen des hohen Aufwandes selten genutzt wird. Für die Kommunikation zwischen Leitstellen und Stationen im Netz, aber auch innerhalb der Stationen werden das signalorientierte Protokoll IEC 60870 und künftig auch das objektorientierte Protokoll IEC 61850 eingesetzt, die in den neueren Versionen auf TCP/IP basieren.
Auf allen Arten von Kanälen können Störeinflüsse wirksam werden, die die Integrität der übertragenen Nachricht verfälschen. Deshalb muss es dem Empfänger möglich sein, die Richtigkeit der Nachricht zu prüfen. Die Datenintegrität ist ein Maß für die Unverfälschtheit der Übertragung zwischen zwei leittechnischen Einrichtungen. Als Restfehlerrate wird die Wahrscheinlichkeit eines unerkannten Fehlers durch Verlust, Verfälschung oder Änderung der Reihenfolge von Daten bezeichnet. Grundsätzlich sind zwei Arten von Fehlern zu unterscheiden:
Signalfehler bewirken eine Verzerrung des Signals und können durch hardwaremäßige Signalprüfungen erkannt werden.
Bei Codefehlern wird ein physikalisch korrektes Signal mit verfälschtem Inhalt empfangen, was nur durch redundante Informationen über den Inhalt der Nachricht zu erkennen ist.
Ein häufig verwendetes Sicherungsverfahren ist die Paritätsprüfung, bei der jedem Zeichen ein Kontrollbit zugefügt wird, so dass das ursprüngliche Bitmuster immer auf einen geraden (oder ungeraden) Wert ergänzt wird. Damit kann ein einfacher Bitfehler erkannt werden, zwei- oder mehrfache Fehler jedoch nicht. Bei größeren Datenblöcken lassen sich mit einer zusätzlichen Längsparitätsprüfung über alle Bits gleicher Wertigkeit eines Blockes dreifache Fehler noch erkennen oder ein Einfachfehler erkennen und korrigieren. Dies ist die Mindestanforderung für leittechnische Übertragungen.
Mit dem Aufkommen preiswerter PC verlagern sich Verarbeitungsintelligenz und Datenspeicherung an die Arbeitsplätze, die miteinander vernetzt werden, um Daten sowohl lokal als auch weltweit schnell und einfach austauschen zu können. Für den Datenaustausch an einem Ort wurden LAN (Local Area Network) entwickelt, die große Datenmengen auf Entfernungen von einigen hundert Metern übertragen können. Als Protokoll wird nur noch TCP/IP benutzt. Inzwischen ist diese Technik so weit verbreitet, dass sie auch in kleinen Firmen und im Heimbereich Anwendung findet. Alle freigegebenen Geräte, Ordner und Dateien im Netz können von den berechtigten Usern wie eigene Objekte benutzt werden. Als Schnittstelle dient fast ausschließlich das Ethernet, als Kanal ein oder zwei verdrillte Adernpaare und in zunehmendem Maße Funk (WLAN = Wireless LAN). Verbindungselemente sind Hubs oder immer öfter Router, die auch den Zugang ins Internet ermöglichen. Um den Zugang Unbefugter in das Drahtlosnetzwerk zu verhindern, sind besondere Sicherheitsmaßnahmen notwendig. Den Ablauf in einem Netzwerk regelt ein Network Management System (NMS), das in Rechnerbetriebssystemen wie z. B. Windows und UNIX integriert ist. |
Auch in lokalen Netzwerken muss mit Ausfällen von Komponenten gerechnet werden:
Eine Netzwerkkomponente (Router, Switch, Hub) wird schadhaft.
Das Ethernetkabel kann beschädigt werden.
Ein wichtiger Rechner, z. B. der zentrale Server fällt aus.
Wie in allen kritischen Konstellationen können Ausfälle einzelner Komponenten nur durch Redundanz beherrscht werden. Deshalb werden in empfindlichen Rechnernetzen, wie z. B. in Leitstellen die einzelnen Rechner auf verschiedene Netzknoten (Router, Switch) verteilt, die über das LAN miteinander verbunden sind. Da wichtige Rechner, wie z. B. Netzwerkserver oder auch die Drucker, ohnehin gedoppelt sein müssen, führt der Ausfall einer Netzwerkkomponente zwar zur Nichtverfügbarkeit eines Teilsystems, die Anlage bleibt aber ungesichert verfügbar.
Informationsnetze beschränken sich heute nicht mehr auf lokale Bereiche, sie sind weltweit ausgedehnt (Internet, NASA, VPN). Für diesen Zweck werden viele lokale Netzwerke durch ein Weitverkehrsnetz (WAN = Wide Area Network) miteinander verbunden, das alle möglichen Arten digitaler Verbindungen mit Stand-, Wähl- und Paketverbindungen über Telefonleitungen, Lichtwellenleiter und Satellitenfunk umfasst. Sowohl eigene Leitungen als auch die Dienste der verschiedenen Telefongesellschaften werden abhängig von der jeweiligen Kommunikationsaufgabe benutzt, denn WAN sind nur ein Teil des globalen Datenverkehrs, der auch die Telefonverbindungen und die Verbindungen der Unterhaltungsindustrie – meist auf denselben Kanälen – einschließt.
Die am weitesten verbreitete WAN-Anwendung ist das Internet. Dieses umfassendes Netzwerk diente schon bald nach seiner Entwicklung Ende der 70er Jahre neben den abgeschirmten militärischen Aufgaben mehr und mehr dem wissenschaftlichen Austausch zwischen Universitäten in aller Welt und hat sich mit der Entwicklung des World Wide Web (www) vor 15 Jahren zum größten Informationsnetz auf der Erde entwickelt. Es verbindet unabhängig vom weltweiten Telefonnetz, aber auf denselben Medien, eine große Zahl von Servern auf der ganzen Erde miteinander. Größere Firmen sind über eigene Server eingebunden, alle anderen Interessenten müssen zunächst über das Telefonnetz zu einem Provider gelangen, der über seinen Server den Zugang ins Internet herstellt. Virtuelle private Netzwerke (VPN = Virtual Private Network) sind geschlossene logische Netze (Tunnel) in einem öffentlichen physikalischen Netz, also auch dem Internet, auf denen private Daten übertragen werden. Die Teilnehmer können Daten wie in einem internen LAN austauschen, ohne direkt verbunden zu sein. VPN werden oft verwendet, um Mitarbeitern außerhalb einer Firma Zugriff auf das interne Netz zu geben.
Mit dem Internet verbundene Netzwerke können durch Infektionen beschädigt oder von Hackern angegriffen werden. Deshalb müssen die Hürden für einen erfolgreichen Einbruch möglichst hoch gesetzt werden. Eine brauchbare Hürde ist die Firewall, die mit entsprechender Hard- und Software den Datenverkehr an den Schnittstellen zwischen einzelnen Computern oder Rechnernetzen kontrolliert, um nur den gewünschten Verkehr passieren zu lassen. Firewalls benötigen stets eine Hardware, auf der die eigentliche Firewall-Software für die Datenkontrolle läuft. Dafür gibt es drei Qualitätsstufen:
Die einfachste – und am wenigsten effektive - Lösung ist die im Betriebssystem integrierte Firewall auf einzelnen PC, die nur wenige, offensichtlich schädliche Eingriffe zurück hält.
Eine Lösung mittlerer Effektivität ist der Einsatz eines Routers mit drei Netzwerkschnittstellen, an denen jeweils die zu trennenden Netze angeschlossen sind.
Die
wirkungsvollste und teuerste Lösung ist die Demilitarisierte Zone (DMZ), die
die Server für den Verkehr nach außen zwischen zwei Routern einschließt.
Dabei unterscheidet man drei Netzwerkzonen:
- Das
externe Netz, meist das Internet,
- Die
(DMZ), in der sich die von beiden Netzen erreichbaren Server befinden,
- Das
interne – geschützte – LAN.
Aus Kapitel 3, Dezentrale Leiteinrichtungen Seitenanfang Hauptseite
Die Grundaufgabe der Netzleittechnik ist es, dem Betriebspersonal das Überwachen und Betätigen der Betriebsmittel im Netz zu ermöglichen. Dafür sind die Betriebsmittel der höheren Netzebenen mit Schnittstellen - vorwiegend noch analog und parallel - ausgestattet, an denen Netzleiteinrichtungen zum gefahrlosen Überwachen und Betätigen angeschlossen werden können:
Kontakte und Wandler zum Ausgeben von Meldungen, Mess- und Zählwerten,
Antriebselemente zum Umsetzen von Steuer- und Stellbefehlen.
Der Verband der Netzbetreiber (VDN) hat im Juli 2004 ein Dokument mit dem Titel "IEC 61850 – Anforderungen aus Anwendersicht" veröffentlicht, in dem das nebenstehende Bild gezeigt wird. Wenn auch eine Reihe älterer Stationen sich noch im Zustand "Gestern" befindet, so wurde doch schon seit Anfang der 90er Jahre bei Umbauten und Erneuerungen der Zustand "Heute" installiert. Seit 2002 wird immer häufiger nach der IEC-Norm 60870-5-104 unter Nutzung des TCP/IP in neuen Stationen und auf dem Weg zur Leitstelle der Zustand "Morgen" angestrebt. Künftig kann bei neuen oder völlig erneuerten Stationen mit dem Protokoll IEC 61850 der Zustand "Zukunft" vorgesehen werden, wenn Primärbetriebsmittel mit digitalen Schnittstellen eingebaut werden. Die Anforderungen dafür beschreibt das o. g. Dokument. Dann dürfte eine direkte Kommunikation zwischen der Leitstelle und den einzelnen Geräten möglich sein. |
Weil nahezu alle vorhandenen Stationen mit einer großen Vielfalt von Lösungen nach einem der ersten drei Szenarien ausgestattet sind, werden diese im Buch hinreichend ausführlich beschrieben:
Schon seit fünfzehn Jahren wurden Stationsleiteinrichtungen mit sternförmigem Anschluss der Feldleitgeräte an das zentrale Stationsleitgerät neben der bestehenden Parallelverdrahtung installiert . Allmählich wurden dann die Normen IEC 60870-5-101 und IEC 60870-5-103 für die Übertragung genutzt, bis heute mit der IEC 60870-5–104 Netzwerke als Stations-LAN eingesetzt werden können. Dabei bilden hochentwickelte Stationsleitgeräte die zentrale Datenschnittstelle,
an die auf der einen Seite die Feldleitgeräte angeschlossen sind,
in die Ein- und Ausgabebaugruppen für den direkten Anschluss von Primärgeräten gesteckt werden können,
die sämtliche genannten Verarbeitungen (ausgenommen Schutzfunktionen) ausführen,
an die kleine Außenstationen über WT und ältere Protokolle anschließbar sind,
und die die Verbindung zu den Netzleitstellen aufbauen.
Die neuere Entwicklung ist ein Netzwerk autarker intelligenter Leitgeräte (IED = Intelligent Electronic Device) mit mehreren Switches und Ethernetverbindungen, in dem das Stationsleitgerät nur der „primus inter pares“ für die zentralen Aufgaben ist, und an das über einen Router die Leitstellenverbindung angekoppelt wird. Der Router muss Eingriffe aus der Station in das übrige Leitsystem sicher verhindern. Das dürfte auch die zukünftige Entwicklung für neue Stationen sein, wie sie in der Norm IEC 61850 angedacht ist. Als Nahsteuereinrichtung wird meist ein normaler PC genutzt und je nach Konfiguration an das zentrale Stationsleitgerät oder direkt an einen Netzknoten angeschlossen. Wegen der seltenen Nahsteuerung erscheint keine Doppelung notwendig. Die Ausstattung entspricht der PC-Technik:
Sichtgerät mit 19“ Diagonale,
Tastatur und Maus,
Drucker.
Die
seit Mitte der 90er Jahre erarbeitete Normenreihe IEC 61850 „Communication
Networks and Systems in Substations“ ist im Mai 2004 in Kraft getreten und
soll die Weichen für eine schrankenlose Zukunft stellen. Die Hersteller bieten
erste Produkte auf ihrer Basis an. Der wesentliche Unterschied zur
signalorientierten Norm IEC 60870 besteht darin, dass zum ersten Mal ein
objektorientiertes Datenmodell verwendet wird. Als Identifikation dient der Name
des Objekts. Die Kommunikation findet wie in der Norm IEC 60870-5-104 über
Ethernet statt. Die Tabelle vergleicht die Eigenschaften der Normen. Übergänge
zwischen proprietärer Technik und der Norm 61850 bei der Erweiterung von
Stationen sind mit dem Einsatz von Gateways beherrschbar.
Norm |
IEC 60870-5-104 |
IEC 61850 |
Anwendungsschichten |
signalorientiert |
Objekte |
Transportschichten |
TCP/IP |
TCP/IP |
Physikalische Schichten |
Ethernet |
Ethernet |
Plattform |
Norm |
Norm |
Datenmodell |
Proprietär |
Norm |
Objekte |
Proprietär |
Norm |
Auch in der Kommunikation der Stationsleittechnik mit den Leitstellen besteht eine große Vielfalt zwischen klassischer und digitaler Technik, die im Buch beschrieben wird. Doch weil die Lebensdauer von Leiteinrichtungen wesentlich kürzer ist als die von Primärgeräten, sind hier Neuerungen eher aktuell.
Die Normen Norm IEC 60870-5-104 und künftig IEC 61850 ermöglichen nicht nur in den Stationen eine digitale Übertragung mit einheitlichen Datenformaten, sondern können auch zwischen den Stationen und Leitstellen angewendet werden. Bei dieser Konfiguration mündet der Stations-LAN in einen Router, der andererseits in ein TCP/IP-Netzwerk eingebunden ist. Dieses Netz aus mehreren Kupfer- oder Glasfaserringen verbindet alle Stationen mit der Leitstelle. Der ringförmige Aufbau bietet eine genügende Redundanz. In der Leitstelle sind aus demselben Grunde zwei Koppelrechner ebenfalls über Router in die Ringe eingebunden. Daneben wird auch bereits der Anschluss der Stationen über virtuelle private Netze auf öffentlichen Netzen wie z. B. dem Internet unter Berücksichtigung der notwendigen Sicherheitsanforderungen praktiziert. Damit können auch weit entfernte Stationen überwacht und gesteuert oder ferne Leitgebiete während bestimmter Zeiten von einer größeren Leitstelle betreut werden. |
Seit Beginn einer umfassenden Stromversorgung bestand der Wunsch, an eine große Zahl von Empfängern gleichzeitig dieselben Befehle zu senden. Nachdem in den westlichen Bundesländern jahrzehntelang die Tonfrequenz-Rundsteuerung für Sammelbefehle eingesetzt wurde, kommt jetzt daneben immer mehr die Funk-Rundsteuersung zum Tragen. Besonders für die ostdeutschen EVU ist dies Verfahren interessant. Betreiber des Systems ist die Europäische Funk-Rundsteuerung GmbH (EFR), die 1993 von mehreren EVU gegründet wurde. Seit 1997 wird das Verfahren kommerziell genutzt.
Schon seit einiger Zeit werden die Mitarbeiter des Außendienstes mit Laptops ausgerüstet, auf denen die wichtigsten Daten ihres Arbeitsbereiches hinterlegt sind, wie z. B. die Schaltpläne der Mittel- und Niederspannungsnetze und die Pläne des Geografischen Informationssystems. Der für die Umspannstationen zuständige Anlagenbetreuer hat statt dessen möglicherweise Anlagenpläne und Informationen über die Betriebsmittel in seinem Laptop gespeichert. In zunehmendem Maße werden diese Laptops an das Datensystem des EVU angeschlossen, um auf den notwendigen Datenbestand zugreifen und auch Änderungen, z. B. des Schaltzustandes im Mittel- und Niederspannungsnetz, eingeben zu können. Im Rahmen des von der Leitstelle geführten Workforce Management können künftig auch Arbeitsaufträge auf diesem Wege vergeben werden. Aus Sicherheitsgründen werden die Laptops nicht direkt mit dem Leitsystem verbunden, sondern können sich nur in die Allgemeine Datenverarbeitung (ADV) des Unternehmens einwählen, die mit dem Leitsystem über eine demilitarisierte Zone verbunden ist. Von der Wohnung des Mitarbeiters oder aus einer Station erfolgt die Einwahl über das Festnetz, von unterwegs über ein Handy per Bluetoth.
Aus Kapitel 4, Netzleitstellen Seitenanfang Hauptseite
Die wesentlichen Aufgabengruppen in Netzleitstellen sind:
Überwachen und Einstellen von Betriebswerten,
Vorbereiten und Durchführen von Schaltungen für planmäßige Arbeiten,
Sichern oder Wiederherstellen der Versorgung nach Störungen,
Hilfs- und Nebenaufgaben.
Sie werden sowohl mit den Grundfunktionen (SCADA = Supervisory Control And Data Acquisition) als auch mit den weiterführenden Funktionen des Leitsystems ausgeführt.
In jedem zentralen Leitsystem finden sich drei Arbeitsebenen:
Die Prozessankopplung mit den redundanten Koppelrechnern bildet die unterste Ebene des Leitsystems. Sie stellen über ein Routernetzwerk die Verbindung zu den Stationen her, und sind auf der anderen Seite mit redundanten Switches im Prozesskoppel-LAN verbunden.
Das Verarbeitungssystem wird von den redundanten Leitrechnern bestimmt. Sie sind auf der einen Seite mit den Switches des Prozesskoppel-LAN verbunden und speisen andererseits redundante Switches im Leitsystem-LAN. An diese sind weitere Verarbeitungsrechner für Lastfluss und Simulation, Training, Datenaufbereitung und Kurzzeitarchiv angeschlossen.
Die Leitplätze des Bedien- und Beobachtungssystems (MMI = Man Machine Interface) sind auf diese Switches verteilt.
Da der Datenaustausch mit den übrigen Bereichen des EVU immer stärker zunimmt, ist einer dieser Leitsystem-Switches über eine Demilitarisierte Zone mit der allgemeinen Datenverarbeitung des Unternehmens verbunden, wodurch der unerlaubte Zugriff auf das Leitsystem verhindert aber dem Leitsystem sowohl der Export von Archivdaten und Aufträgen in den Datenserver als auch den Import von Informationen, z. B. aus dem GIS oder der Betriebsmitteldatei ermöglicht wird.
Die Netzleittechnik dient der Übermittlung und Verarbeitung von Informationen vom und zum Netz und ermöglicht es dem Netzführer, den Prozess als Abbildung auf dem Leitsystem wahrzunehmen. Die beste Erfassung, Übertragung und Verarbeitung von Informationen ist wertlos ohne eine menschengerechte Bedien- und Beobachtungsschnittstelle. Netzführer sind hochqualifizierte Meister, Techniker oder Ingenieure mit langjähriger Erfahrung im Netzbetrieb. Daher ist selbstverständlich, das Mensch-Maschine-Interface bestmöglich auf den Menschen abzustimmen, der dort arbeitet. Die entscheidenden Kriterien für die Qualitätsbestimmung eines Netzleitsystems sind die Art und Weise und die Geschwindigkeit, mit der es
Informationen aus dem Netz aufbereitet und darstellt,
komplizierte Zusammenhänge übersichtlich vereinfacht,
wichtige Informationen aus großen Mengen unwichtiger herausfiltert,
Bedienungen möglichst vereinfacht und überprüft.
Durch die Aufteilung in Übertragungs- und Verteilungsnetze sind die 110-kV-Netze überall in die Verteilungsebene übergegangen und werden von Verteilungs-Netzleitstellen geführt. Da ihre Struktur sich aber erheblich von der der Mittelspannungsnetze unterscheidet, sind zwei recht unterschiedliche Darstellungsarten notwendig:
Die Hochspannungs-Verteilungsnetze bestehen überwiegend aus Leitungen zwischen Umspannstationen und enden beidseitig in Schaltfeldern von Sammelschienenanlagen. Wegen der Ähnlichkeit dieser Struktur und der Wichtigkeit für die Versorgung größerer Gebiete werden vielfach die Transformatoren und die Mittelspannungssammelschienen noch mit zum Hochspannungsverteilungsnetz gehörig angesehen, soweit beide Netze zu einem EVU gehören. Dargestellt werden müssen dem gemäß Sammelschienenanlagen mit verbindenden Leitungen oder Transformatoren.
Die Mittelspannungs-Verteilungsnetze sind in manchen Städten ringförmig, sonst überwiegend vermascht strukturiert. Sie werden jedoch fast ausnahmslos strahlenförmig betrieben. Fernsteuerbar sind meist nur die einspeisenden Leistungsschalter. Die Schalthoheit liegt in vielen EVU beim lokalen Schaltdienst. Dargestellt werden müssen für diese Netze außer den Mittelspannungs-Sammelschienen als oberste Ebene vor allem die Leitungsstränge mit den vielen eingeschleiften Ortsnetz- und Kundenstationen.
In manchen Leitstellen werden in einer dritten Darstellungsart die Umspannstationen mit den Sammelschienen und allen Schaltfeldern dargestellt. Damit aus diesen Bildern geschaltet werden kann, ist es unumgänglich, die Gegenseiten der einspeisenden Netzkomponenten mit darzustellen, auch wenn sie sich in anderen Stationen befinden.
Jedes Netzbild besteht aus zwei Ebenen:
der relativ statischen Struktur,
den dynamischen Zuständen der Objekte, Partiale, Netzkomponenten und Teilnetze.
Ihre übersichtliche Darstellung ist eine wesentliche Funktion jedes Netzleitsystems. Wie im Teil 1 gezeigt wird, hängt der Versorgungszustand eines Teilnetzes von den Betriebszuständen aller vorgeschalteten Netzkomponenten ab, die wiederum aus den einzelnen Schaltzuständen aller ihrer Schaltgeräte gebildet werden. Die wichtigste Darstellungsaufgabe ist die verdichtete Anzeige der Betriebs- und Versorgungszustände im aufgabenbedingt notwendigen Umfeld. Wie für alle anspruchsvollen Aufgaben kommen auch hier die im Teil 1 genannten Arbeitsphasen zum Tragen, wobei zu jeder Phase unterschiedlich detaillierte Darstellungen gebraucht werden, wie sie in der Tabelle zusammengestellt sind:
Phase |
Notwendige Darstellung |
Information
|
betroffene
Netzkomponenten in ihrem Umfeld mit Lastaufteilung |
Planung
|
alle
in Frage kommenden Ersatzwege mit ihren Freilasten |
Aktion
|
die
beim Schalten oder anderen Aktionen zu bedienenden Objekte |
Kontrolle
|
der
neue Schaltzustand mit der eingestellten Lastaufteilung |
Um diese Anforderungen zu erfüllen, wird das Weltbildverfahren für die Darstellung von Netzbildern genutzt, das es gestattet, beliebige graphische Objekte auf der Basis eines Koordinatensystems darzustellen, und dem für die Darstellung aktiver Netzbilder weitere Eigenschaften implementiert werden:
Für das Decluttering sind Zoomstufen festzulegen, bei denen weitere Objekte erscheinen. Dafür werden einige Bildebenen definiert, die die oben genannten Anforderungen an verschiedene Detailstufen hinreichend erfüllen und die sich sowohl beim Zoomen einstellen als auch direkt angewählt werden können. Sie zeigen mit denselben Koordinaten grafische Darstellungen der Betriebsmittel in unterschiedlicher Verdichtung:
0 das gesamte Netz mit Stationen in Blockform, Das nebenstehende Bild eines Hochspannungsnetzes zeigt den Zusammenhang zwischen den Ebenen 1, 2 und 3. Ein Mittelspannungsnetz in den Ebenen 1 und 2 wird auf den Umschlagbildern der beiden Bände gezeigt. Zur Darstellung von Betriebs- und Versorgungszuständen sollten vorwiegend unterschiedliche Farben genutzt werden. |
Bei allen Schaltungen müssen bestimmte Schaltbedingungen beachtet werden, da sonst Gefahr für Menschen, Anlagen oder die Versorgungssicherheit besteht:
Trenner dürfen nur geschaltet werden, wenn kein Strom fließt oder ein nahezu impedanzfreier Nebenschluss besteht.
Geerdete oder nichtverfügbare Netzteile (auch gestörte Netzkomponenten) dürfen nicht unter Spannung gesetzt werden.
Asynchrone Netzteile (auch mit stehenden Generatoren) dürfen nicht verbunden werden.
Die Versorgung von Kunden darf nur bei Gefahr unterbrochen werden (Versorgungskonstanz).
Weitere Weiterführende Funktionen werden im Buch beschrieben:
State Estimation,
Kurzschlussstromberechnung,
Erdschlussstromberechnung,
Lastflussrechnung,
Ausfallsimulation,
Lastführung,
Instandhaltungsplanung,
Außendiensteinsatz,
Schaltsequenzen,
Personalschulung.
Auch Störungen können nur in der Reihenfolge der vier im Teil 1 beschriebenen Phasen erfolgreich bearbeitet werden. Dabei ist eine leicht verständliche Anzeige der wichtigsten Meldungen von großer Bedeutung, um die Informationsphase schnell und erfolgreich abzuschließen. Leider wird - vor allem bei Großstörungen mit umfangreichen Ausfällen von Betriebsmitteln - oft ein Schwall von Meldungen übertragen, von denen nur die wenigsten wirklich wichtig sind. Wegen der begrenzten Informations-Verarbeitungsrate des Menschen muss die Meldungsanzeige sinnvoll selektiert werden. Dafür bieten sich einige Hilfsmittel an:
Verdichtung zusammengehöriger Meldungen,
Klassifizierung der Meldungen nach Dringlichkeit,
Darstellung der Zustände, in denen sich die Meldungen befinden. ...
Eine Klassifizierung nach Dringlichkeit, die jedem Meldungstext schon bei der Datenaufbereitung beigefügt wird, ermöglicht eine wesentlich bessere Übersicht:
Gefahr: sofort handeln,
Fehler: baldmöglichst handeln oder Personal einsetzen,
Mangel: gelegentlich Personal einsetzen.
Zum Erkennen des aktuellen Störungsumfanges muss der Netzführer die noch anstehenden Störungsmeldungen sehen. Dazu müssen die Meldezustände
anstehend (1),
gegangen (0).
angezeigt werden. Außerdem haben Störungsmeldungen aber auch Bearbeitungszustände:
neu,
gesehen,
quittiert.
Der Zustand „gesehen“ ist bei Meldungsschauern notwendig, um die neu kommenden Meldungen von den bereits gesehenen, aber noch nicht bearbeiteten zu unterscheiden. Er sollte nach der ersten Anwahl vom Leitsystem selbsttätig gesetzt werden. Quittieren, und zwar in der Zustandsliste sollte der Netzführer Meldungen erst, nachdem er Maßnahmen eingeleitet hat.
Um
die Sicherheit der Versorgung zu gewährleisten, ist die Leitstelle die
einzige Stelle im Unternehmen mit unmittelbarem und unbegrenztem Zugriff
auf das Netzleitsystem, doch ist dieses nicht die einzige
Informationsquelle und –senke für die Leitstelle. Die
Stationsleittechnik erfasst nur die jeweilige Station mit evtl.
Satelliten. Die übrigen Bereiche des Netzbetriebes (Leitung,
Bezirksdienststellen, Anlagenbetreuer, Schaltaußendienst) wie auch alle
anderen Bereiche des Unternehmens haben nur Zugriff auf die Allgemeine
Datenverarbeitung (ADV), doch können sie vom Server in der
Demilitarisierten Zone Informationen aus definierten Bereichen des
Netzleitsystems abrufen (Data Warehouse). Diese Lösung entlastet das
Netzleitsystem von allen Archivierungs-, Verknüpfungs- Verdichtungs- und
Berichtsfunktionen, die nicht für die unmittelbare Betriebsführung
notwendig sind.
In der ADV werden neben den üblichen Bürosystemen wie Textverarbeitung und Tabellenkalkulation integrierte Verwaltungs- und Abrechnungssysteme eingesetzt, die auch ein Instandhaltungsmanagement bieten. Der Modul PM (Plant Maintenance) des weit verbreiteten Standardsystem SAP R/3 erfüllt zwar – wie andere Produkte auch - die speziellen Anforderungen der EVU nicht vollständig, wird aber trotzdem immer mehr genutzt, weil die übrige Verwaltungssoftware ebenfalls aus dem Hause SAP kommt. Auch die Leitstelle braucht für eine Reihe von Aktivitäten den Zugriff auf die ADV und sollte dafür an jedem Leitplatz ein Terminal haben. |
Ein Netz, das mit einem Leitsystem geführt werden soll, ist vorher als Datensammlung zu erfassen. Im späteren Betrieb muss dann jede bauliche Änderung im Netz als Datenänderung im Leitsystem nachvollzogen werden. Das Datenmodell des Leitsystems muss stets ein genaues Abbild der potenziellen Topologie des Netzes sein, in dem jedes einzelne Objekt mit allen Attributen und seinen Verbindungen zu anderen Objekten hinterlegt ist. Außerdem muss eine große Zahl von Codelisten aufgebaut bzw. aktualisiert werden. Datenaufbereitung läuft in modernen Leitsystemen in zwei Stufen ab:
Eingabeprogramme speichern die eingegebenen Daten in einer Quelldatenbank, für die eine SQL-fähige Standarddatenbank benutzt wird,
Generatoren erzeugen in einem unabhängigen Generierlauf daraus das Datenmodell.