Testsysteme
PXI-basiertes Testen mit HIL-basierter Simulation
Bisher erforderten komplexe Testaufbauten die Anschaffung zahlreicher sperriger Geräte, die jeweils eine erhebliche Investition darstellten. Die Schwachstellen dieses Konzepts wurden mit zunehmender Systemkomplexität immer deutlicher. Folglich sehen wir derzeit große Änderungen bei den Test- und Prüfstrategien.
Einer der Nachteile von Testsystemen, die aus einzelnen Geräten bestehen, ist der, dass solche Anordnungen verschwenderisch sind. Branchenstudien und Kundenrückmeldungen zeigen, dass im Durchschnitt nur 30-40% der Funktion gekaufter Testsets tatsächlich genutzt wird. Müssen die Systeme dann erweitert werden, erfordert dies die zusätzliche Geräte auf Racks zu stapeln (wobei nur ein Bruchteil der Funktion jedes Geräts genutzt wird). Zu den hohen Kosten kommt das Problem der Integration aller Komponenten hinzu, wobei sich die Interoperabilität, die Datenübertragung mit hohem Durchsatz und die Synchronisierung zwischen den verschiedenen Komponenten als schwierig erweisen.
Mit dem Aufkommen modularer Messsysteme hat sich dies geändert. Jetzt müssen Testteams nur die Funktionen kaufen, die sie benötigen. Zudem haben sie die Flexibilität, in Zukunft weitere hinzuzufügen, so dass kein Geld mehr für überflüssige Funktionen verschwendet wird. Hinzu kommt die Flexibilität, dass sich jede beliebige Funktion hinzufügen lässt, wenn es die Anforderungen verlangen.
Umfassender Einsatz eines modularen Paradigmas
Die Analysten von Data Bridge Market Research haben kürzlich einen Bericht veröffentlicht, der vorhersagt, dass der Markt für modulare Testinstrumente bis zum Jahr 2029 jährlich um 6,8% (CAGR) wachsen soll. Damit würde bis zum Ende dieses Zeitraums ein jährlicher Wert von 3,67 Mrd. US-$ erreicht.
Durch den Einsatz modularer hochleistungsfähiger, PXI-basierter Messsysteme steht den Testingenieuren eine effiziente Plattform zur Verfügung, auf der sie ihre Test-/Validierungs-Workflows aufbauen können. Verschiedene Funktionselemente lassen sich dann austauschen, wenn sich Testkriterien ändern. Zusätzliche Kapazitäten (z. B. mehr I/O-Kanäle oder Datenverarbeitungsressourcen) können hinzufügt werden, wenn die Testaktivitäten im Zusammenhang mit einem Projekt zunehmen. Da alle im Chassis enthaltenen Funktionselemente miteinander synchronisiert sind, können mehrere phasenkohärente Kanäle mit geringer Latenz verarbeitet werden.
Tests auf Subsystem- und Systemebene
In vielen Industriezweigen ist die Einführung des „Concurrent Engineering“ bereits im Gange, was die Argumente für den Übergang auf modulare Testanordnungen noch stärker macht. Hier verfügen OEMs über getrennte Entwicklungsteams, die parallel an Teilen des Systems arbeiten. Indem sie in der Lage sind, Tests an Subsystemen in den frühen Phasen eines Projekts durchzuführen, können die Ingenieure das Risiko minimieren, dass im weiteren Verlauf Probleme auftreten. Daraus resultiert geringere finanzielle Aufwendungen, ebenso wie ein Verringerung des technische Aufwands und Zeiteinsparungen für das Redesign. Projekte können so im Rahmen des Budgets und innerhalb der Fristen abgeschlossen werden.
Studien zeigen, dass zu Beginn eines Entwicklungsprojekts bereits rund 80% der Kosten gebunden sind. Werden mögliche Fehler nicht frühzeitig aufgedeckt (vor der vollständigen Systemmontage), kann dies zu einem hohen finanzieller Verlust führen. Ingenieure müssen ihre Testabdeckung erweitern - über das funktionale parametrische Testen von Komponenten oder Modulen hinaus - um genau zu bestimmen, wie diese sich auf Systemebene verhalten werden.
Durch die Ergänzung modellbasierter Tests mit Hardware-in-the-Loop-/HiL-Simulationen lassen sich komplexe Systementwürfe prüfen (und Probleme identifizieren), bei gleichzeitiger Begrenzung der technischen Gemeinkosten. Die folgenden Aspekte sind für eine solche Validierung wesentlich:
- Breitband-Signalerzeugung und Datenerfassung
- Mehrkanal-Phasenabgleich
- Signalverarbeitung in Echtzeit
Phasengesteuerte Anwendungen
Digitalisierte Phased-Arrays werden heute in einer Vielzahl von HF-Anwendungen eingesetzt und unterstreichen die Bedeutung der HiL-Simulation. Die folgenden Beispiele zeigen die damit verbundenen Herausforderungen:
Radar – AESA-Radarsysteme (Active Electronically Scanned Array) bestehen aus einer großen Anzahl kleiner Antennen, die aus Sendern/Empfängern (Ts/Rs) bestehen. Bei Systemen mit größerer Reichweite können Zehntausende von ihnen zum Einsatz kommen. Mit Hilfe phasengesteuerter Antennengruppen können die Strahlen elektronisch gelenkt werden (die Antennen müssen nicht mechanisch bewegt werden). Die Validierung solcher Systeme erfordert eine hohe Anzahl von Kanälen mit Phasenabgleich, so dass die Kohärenz zwischen allen Kanälen gewährleistet ist.
Ein erster Machbarkeitsnachweis, bestehend aus einigen hundert Antennen, lässt sich in einer HiL-Anordnung testen. Anschließend kann es auf ein vollwertiges System hochgefahren werden, das TB/s an Daten erfasst. Die Möglichkeit, diese Daten auf einem FPGA vorab zu verarbeiten und zu komprimieren, macht diese besser handhabbar. Um die Synchronisierung der Module im PXI-Chassis (und in größeren Systemen über mehrere Chassis hinweg) zu gewährleisten, ist eine Auflösung im Sub-ns-Bereich erforderlich. Die Daten müssen für ein effektives Datenmanagement nach der Erfassung korrekt mit Zeitmarken versehen werden.
Satellitenkommunikation – SATCOM-Verbindungen sind eine grundlegende Technik, um den aktuellen und zukünftigen Kommunikationsbedarf im zivilen und militärischen Bereich zu decken. Neue Dienste (Sprach-, Video- und Datendienste), die sehr hohe Datenraten erfordern, werden nach dem Paradigma „Anytime-Anywhere“ entwickelt – mit dem Ergebnis, dass die Kapazität terrestrischer Kommunikationsnetze, die in einer sehr dichten elektromagnetischen Umgebung arbeiten, erhöht wird. Der steigende Bedarf an Qualität, Sicherheit und Kostenmanagement erfordert ein HiL-Prüfkonzept, bei dem die Systeme unter realistischen Bedingungen getestet werden, indem die digitalen/analogen Systeme, mit denen sie vernetzt sind und zusammenarbeiten, nachgearmt werden. Ein Beispiel für diese HiL-basierte Systemvalidierung ist der Einsatz eines Satelliten-Link-Emulators (SLE) zur Messung der Auswirkungen realer elektromagnetischer Kanäle.
Elektronische Kriegsführung – Moderne Szenarien für den Betrieb im elektromagnetischen Spektrum (EMSO) reichen von wenig beobachtbaren, mit geringer Wahrscheinlichkeit abfangbaren, intelligenten, verdeckten und getarnten „Bedrohungen“ bis hin zu hochleistungsfähigen und hochdichten, Störsignal- und agilen Emissionen. Voneinander abhängige, zeitlich veränderliche, reaktive und anpassungsfähige Emissionen sind in jedem EMSO-Teilbereich zu finden, der sowohl Radar-, Kommunikations- und Navigationsfrequenzbänder als auch das Infrarot-, UV- und sichtbare Spektrum umfasst. Solche Szenarien erfordern eine rasche Entwicklung von Test-/Evaluierungsprinzipien (T&E) und entsprechender Testarchitekturen, um die sich abzeichnenden technischen und betrieblichen T&E-Herausforderungen während des gesamten Entwicklungsprozesses zu bewältigen. Dazu gehören die Herausforderungen im Zusammenhang mit softwarebasierten Fähigkeiten, die Agilität, Anpassungsfähigkeit, Kognition und künstliche Intelligenz (KI) ermöglichen, sowie föderierte und bereichsübergreifende Sensorsuiten und System-of-Systems (SoS) sowie der Cyberspace.
Diese Herausforderungen werden durch die digitale Transformation der T&E-Abläufe angegangen. Den Verifizierungs- und Validierungsingenieuren steht dabei eine hoch programmierbare, agile Infrastruktur zur Verfügung, um externe Stimuli für das zu testende System zu erzeugen und anzupassen. Der Übergang erfordert jedoch einen integrierten und funktionsübergreifenden Ansatz, um die Nutzung und Effizienz der T&E-Ressourcen im gesamten Entwicklungszyklus zu verbessern. Dies hält die Gesamtbetriebskosten niedrig und beschleunigt die Markteinführung durch Hardware-/Software-in-the-Loop-(HiL-/SiL-)Tests in allen Phasen des Entwicklungszyklus und in zahlreichen Testumgebungen.
Die Voraussetzung für Modellierung, Simulation und HIL-Tests ist eine flexible Hardware-Plattform. Modularität ist unerlässlich, da Funktionen entsprechend den sich ändernden Anforderungen hinzugefügt/entfernt werden müssen. Außerdem muss eine Skalierbarkeit hinsichtlich der Anzahl der Kanäle, Rechenressourcen und unterstützten Frequenzbänder gegeben sein. Ebenso sollte Flexibilität in Bezug auf die gehosteten Funktionen, die Möglichkeit, neu zu programmieren sowie die Anbindung an andere Systeme und/oder Tools gegeben sein, um Daten gemeinsamen nutzen und steuern zu können.
Der Vektorsignal-Transceiver (VST) von NI ist ein modulares und softwaredefiniertes Gerät (Bild 3), das die Anforderungen moderner T&E-Systeme erfüllt, wie z. B. die I/O-Latenz und die große Momentan-Bandbreite (bis zu 2 GHz). Die Onboard-Verfügbarkeit eines offenen FPGAs macht das Gerät flexibel genug, um beliebige Modellierungs-, Simulations-, Verarbeitungs- und Steuerungsanwendungen in Echtzeit zu hosten, was T&E im gesamten Systemlebenszyklus ermöglicht.
Fazit
Die Herausforderungen, denen sich Ingenieurteams heute bei der Entwicklung neuer Systeme gegenübersehen, sind gewaltig. Dabei ist Unterstützung über den gesamten Entwicklungszyklus hinweg erforderlich, um den Weg von der Validierung ihres anfänglichen Konzepts bis hin zur Fertigung des Endprodukts zu durchlaufen und auf derselben grundlegenden Testplattform aufzubauen. Softwaredefinierte modulare Messgeräte haben sich dafür als die beste Lösung erwiesen. Sie bietet eine schlanke, kompakte, anpassungsfähige, kostenoptimierte und skalierbare Methode zum Testen komplexer datenintensiver Systeme, an denen viele Kanäle beteiligt sind. Die hier beschriebene PXI-basierte VST-Plattform ermöglicht zusammen mit FPGAs eine genaue Untersuchung des System- und Subsystemverhaltens in einem frühen Stadium des Entwicklungsprozesses. So können Ingenieure sicher sein, dass Entwicklungsprojekte von Anfang an auf dem richtigen Weg sind.