http://www.tu-ilmenau.de

Logo TU Ilmenau


You are here

INHALTE

Dissertationen

Anzahl der Treffer: 150
Erstellt: Mon, 23 Nov 2020 23:02:07 +0100 in 0.0652 sec


Del Galdo, Giovanni;
Geometry-based channel modelling for multi-user MIMO systems and applications. - Ilmenau : ISLE, 2007. - Online-Ressource (PDF-Datei: XIX, 274 S., 13,96 MB). . - (Research reports from the Communications Reseach Laboratory at Ilmenau University of Technology) Ilmenau : Techn. Univ., Diss., 2007

Im Rahmen dieser Dissertation wird die Kanalmodellierung von zeitvarianten, frequenzselektiven Mehrnutzer Multiple Input Multiple Output (MIMO) Kanälen für die Funkübertragung behandelt. Durch eine Erweiterung der Bello Funktionen mit Hilfe von Tensoren wird die multidimensionale Dispersion des Funkkanals dargestellt. Es werden einige der wichtigsten Ansätze zur Kanalmodellierung vorgestellt und klassifiziert. Für geometrische Kanalmodelle ist es entscheidend die Richtcharakteristika der Antennen im Fernfeld genau und effizient zu beschreiben. Zu diesem Zweck wird ein neues Beschreibungsverfahren entwickelt, das auf der Discrete Vector Spherical Fourier Transform (DVSFT) basiert. Dadurch ist es möglich, eine höhere Genauigkeit bei der Beschreibung von komplexen Vektorfunktionen auf der Kugel zu erreichen. Die vorgeschlagene Methode führt zu neuen Anwendungsmöglichkeiten. Der Schwerpunkt dieser Dissertation ist IlmProp: ein Geometrie-basiertes Framework zur Kanalmodellierung. Es füllt die Lücke zwischen konventionellen direktionalen Kanalmodellen und so genannten "Ray-Tracer"Kanalmodellen. IlmProp ermöglicht es gleichzeitig mehrere Nutzer in der selben Umgebung zu simulieren. Mehrwege-Komponenten werden an Hand von punktförmigen Wechselwirkungsobjekten, so genannten Interacting Objects (IOs), modelliert. Dadurch wird die zeitliche Variation der Korrelation in Zeit, Frequenz, Raum und zwischen den Nutzern realitätsnah modelliert. Die Parameter des IlmProp Kanalmodells können willkürlich gesetzt oder aus hochauflösenden Parameterschatzverfahren gewonnen werden. Im ersten Fall kann IlmProp dazu genutzt werden, verschiedene Sende, Empfangs und SchedulingAlgorithmen zu testen. Um aus hochauflosenden Parameterschatzungen die IlmPropParameter zu gewinnen, wurde ein neuartiger Algorithmus entwickelt, der die IOs aus Einfalls- und Austritts-winkel und der Ausbreitungszeit lokalisiert.Dies macht IlmProp zu einem leistungsfähigen Visualisierungswerkzeug, um Kanalmessungen zu validieren und um die Ausbreitungsbedingung des Szenarios zu untersuchen. Im weiteren Verlauf der Arbeit wird das so genannte Measurement-Based Parametric Channel Model (MBPCM), verbessert. Es ermöglicht durch eine antennenunabhängige, doppelt-direktionale Kanalbeschreibung, aus vorhandenen Kanalmessungen zusätzliche realitätsnahe, synthetische Kanalrealisierungen zu erzeugen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=11002
Fiedler, Matthias;
Verfahren zur Analyse von Ähnlichkeit im Ortsbereich. - Ilmenau : Univ.-Verl. Ilmenau, 2007. - Online-Ressource (PDF-Datei: 126 S., 2,63 MB). Ilmenau : Techn. Univ., Diss., 2007

Aus der zunehmenden Nutzung von hochauflösenden Bildsensoren in stationären sowie mobilen Anwendungsbereichen erwachsen neue Anforderungen an die Algorithmen der Bilderkennnung. Eines der ursprünglichsten Kriterien zur Beurteilung der Ähnlichkeit von Bildpunkten als Mengen findet aber nur wenig Beachtung, die Hausdorff-Distanz. Daher behandelt die vorliegende Arbeit ein Verfahren zum Einsatz dieses Abstandsmaßes. Die Darlegungen umfassen die Einführung eines geeigneten Modells zur Beschreibung von linearen Abweichungen, deren Kompensation und Beurteilung anhand zugehöriger Wahrscheinlichkeitsverteilungen. Ausgangspunkt dieser Arbeit sind die mathematische Beschreibung des genannten Kriteriums und die Berechnung einer Abweichungsinformation, die als dreidimensionales Distanzvektorfeld auch die Richtung zur Verringerung der Unterschiede enthält. Sie bilden die Grundlage für die Darstellungsformen der Häufigkeitsverteilungen und Wahrscheinlichkeitsdichten, anhand derer die Entscheidungen in Bezug auf Ähnlichkeit gefällt werden. Die Interpretation der Distanztransformation als vektorieller Zufallsprozeß eröffnet völlig neue Möglichkeiten zur Kompensation von geometrischem Versatz der Bildinhalte. Unter Nutzung des eingeführten Abweichungsmodells erfolgt die Anwendung einer Regelschleife zur Minimierung der linearen Deformation. Gleichzeit erweist sich das Filtersystem als unempfindlich gegenüber normalverteilten Störsignalen. Die Zulässigkeit einer gewissen Gleichberechtigung der Metriken $d_2$ und $d_1$ für normalverteiles Rauschen wird gezeigt. Daraus ergibt sich die wesentliche Voraussetzung für den Einsatz von schaltungstechnischen Beschleunigungsmaßnahmen, die im Entwurf eines Distanzprozessors münden. Mit der Unterstützung des Distanzprozessors gelingt der Nachweis der Stabilität der Regelschleife. Gleichzeitig ist eine Erhöhung des Korrelationsfaktors der betrachteten Bildausschnitte unter Nutzung der Richtungsinformation des Distanzvektorfeldes zu beobachten. Die Einbeziehung der Nachbarschaftsregionen in die Beurteilung der Ähnlichkeit zur Korrektur von Verformungen erzielt besonders beim Vergleich von Gesichtern hervorragende Ergebnisse in Bezug auf Stabilität der Regelschleife und Erhöhung der Aussagekraft der Häufigkeitsverteilungen.



http://www.db-thueringen.de/servlets/DocumentServlet?id=7887
Stankovi´c, Veljko;
Multi-user MIMO wireless communications, 2007. - Online-Ressource (PDF-Datei: 146 S., 1311 KB). Ilmenau : Techn. Univ., Diss., 2007

Mehrantennensysteme sind auf Grund der erhöhten Bandbreiteneffizienz und Leistung eine Schlüsselkomponente von Mobilfunksystemen der Zukunft. Diese ermöglichen das gleichzeitige Senden von mehreren, räumlich getrennten Datenströmen zu verschiedenen Nutzern. Die zentrale Fragestellung in der Praxis ist, ob der ursprünglich vorausgesagte Kapazitätsgewinn in realistischen Szenarios erreicht wird und welche spezifischen Gewinne durch zusätzliche Antennen und das Ausnutzen von Kanalkenntnis am Sender und Empfänger erzielt werden, was andererseits einen Zuwachs an Overhead oder nötiger Rechenleistung bedeutet.In dieser Arbeit werden neue lineare und nicht-lineare MU-MIMO Precoding-Verfahren vorgestellt. Der verfolgte Ansatz zur Bestimmung der Precoding-Matrizen ist allgemein anwendbar und die entstandenen Algorithmen können zur Optimierung von verschiedenen Kriterien mit beliebig vielen Antennen an der Mobilstation eingesetzt werden. Das wurde durch die Berechnung der Precoding-Matrix in zwei Schritten erreicht. Im ersten Schritt wird die Überschneidung der Zeilenräume minimiert, die durch die effektiven Kanalmatrizen verschiedener Nutzer aufgespannt werden. Basierend auf mehreren parallelen Einzelnutzer-MIMO-Kanälen wird im zweiten Schritt die Systemperformanz bezüglich bestimmter Kriterien optimiert.Aus der gängigen Literatur ist bereits bekannt, dass für Nutzer mit nur einer Antenne das MMSE Kriterium beim precoding optimal aber nicht bei Nutzern mit mehreren Antennen. Deshalb werden in dieser Arbeit zwei neue Mehrnutzer MIMO Strategien vorgestellt, die vom MSE Kriterium abgeleitet sind, nämlich sukzessives MMSE und RBD. Bei der sukzessiven Verarbeitung mit einer entsprechenden Anpassung der Sendeleistungsverteilung kann die volle Diversität des Systems ausgeschöpft werden. Die Kapazität nähert sich dabei der maximalen Summenrate des Systems an. Bei gemeinsamer Verarbeitung der MIMO Kanäle wird unabhängig vom Grad der Mehrnutzerinterferenz die maximale Diversität erreicht.Die genannten Techniken setzen entweder eine aktuelle oder eine über einen längeren Zeitraum gemittelte Kanalkenntnis vorraus. Aus diesem Grund müssen die Auswirkungen von Kanal-Schätzfehlern und Einflüsse des Transceiver Front-Ends auf die Verfahren näher untersucht werden.Für eine weitergehende Abschätzung der Mehrantennensysteme muss die Performanz des Gesamtsystems untersucht werden, da viele Einflüsse auf die räumliche Signalverarbeitung bei Betrachtung eines einzelnen Links nicht erkennbar sind. Es wurde gezeigt, dass mit MIMO Precoding Strategien ein Vielfaches der Datenrate eines Systems mit nur einer Antenne erzielt werden kann, während der Overhead durch Pilotsymbole und Steuersignale nur geringfügig zunimmt.



http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2007000068
Ponca, Marek;
Towards efficient implementation of artificial neural networks in systems on chip. - Ilmenau : ISLE, 2007. - XII, 131 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2006

Der Mangel an effektiv auf einem Chip implementierten künstlichen neuronalen Netze fordert einen neuen Ansatz. Die Ausnutzung der physikalischen Effekte, die uns die zur Realisierung benutzten Halbleitertechnologien bieten, können zum Beispiel für die flächensparende Implementierung genutzt werden. Neuronale Netze als integrierter Bestandteil komplexer Systeme können nur dann eingebettet werden, wenn die Voraussetzungen für eine kompakte Realisierung erfüllt sind. Dazu zählt vor allem eine flächensparende Implementierung aller Komponenten.Diese Arbeit behandelt neue Ansätze zur Implementierung künstlicher neuronaler Netze in digitaler Hardware. Da diese meistens wesentlich mehr Chipfläche bedürfen, dafür aber mit wesentlich höherer Bandbreite und Datenraten arbeiten, wird es immer den Bedarf an platzoptimierten Realisierungen geben. Im weiteren wird eine Vorgehensweise für die Implemetierung temporärer Dynamik neuronaler Potentiale mit minimierter Ressourcen-Ausnutzung präsentiert. Als Beispielapplikation wurde ein System für die Schallquellenlokalisierung benutzt.Zusätzlich wurde eine Methode entwickelt, mit der es möglich ist, die Hardware-Realisierungen der künstlichen neuronalen Netze miteinander zu vergleichen und objektiv zu bewerten. Verschiedene Kriterien und Ansichtsweisen können dabei in Betracht gezogen werden, z.B. ob der Wert auf der Genauigkeit der Nachbildung liegt oder ob eher die Rechenleistung im Vordergrund steht.



Bräunig, Sylvia;
Konzeption und Realisierung einer webbasierten Lernumgebung für die Signal- und Mustererkennung, 2006. - Online-Ressource (PDF-Datei: 147 S., 3169 KB). Ilmenau : Techn. Univ., Diss., 2006

Die vorliegende Arbeit stellt sich der Herausforderung nach einer flexibel einsetzbaren, praxisverbundenen Lehrsoftware für die Signal- und Mustererkennung mit dem Kernanliegen, die Organisation und Durchführung eines virtuellen, webbasierten Praktikums zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein Konzept für eine web- und browserbasierte Lernumgebung Virtuelles Praktikum für die Signal- und Mustererkennung" (vPSM) entwickelt und prototypisch realisiert. Im Zentrum der Arbeit stand die Konzeption und prototypische Implementierung von interaktiven Bedienelementen den virtuellen Geräten, die sich kontextunabhängig sowohl für die Durchführung von Praktika, für das Selbststudium - auf der Basis selbstgesteuerten, explorierenden Lernens - und zur Ergänzung der Lehrveranstaltungen einsetzen lassen. Ausgehend von den lerntheoretischen Grundlagen, den Grundlagen computerunterstützter Lernumgebungen, der "State-of-the-Art"-Analyse, den fachspezifischen Anforderungen und der aktuellen Ausgangssituation am Fachgebiet wurde ein Konzept für eine Lernumgebung für die Signal- und Musterkennung entwickelt. Dabei wurde speziell auf die didaktische Konzeption, verschiedene Strukturierungskonzepte bezüglich der thematischen Stoffaufteilung und bezüglich der Bearbeitungsabfolge eingegangen. Ein besonderes Augenmerk wurde auf die Konzeption der virtuellen Geräte, die verschiedenen Nutzeraktionsformen und die Aufgabenkonzeption gelegt. Bei der Entwicklung und Implementierung, speziell der interaktiven Geräte, war ausschlaggebend, dass die Interaktivität der Lernobjekte ein entscheidendes Qualitätskriterium des Lernens bzw. einer Lernumgebung ist. Ergänzt wird die Lernumgebung durch die Bereitstellung vorlesungs- und übungsergänzender Lehrinhalte, interaktiver Experimentierumgebungen, Aufgaben- und Informationssammlungen und Hilfesysteme. Sie stellt gleichzeitig vielfältige Schnittstellen zur Verfügung, um Ergebnisse aus weiterführenden wissenschaftlichen Arbeiten zu implementieren. Durch die Integration des Computer-Algebra-Systems Mathematica über eine Java-API steht ein mächtiges Werkzeug für die mathematischen Operationen und die Erzeugung verschiedenster Präsentationsmöglichkeiten (auditiv, visuell) zur Verfügung. In Zusammenhang mit der Beschreibung der technischen Realisierung wird ein Einblick in die verwendeten Technologien, die datenbankbasierten Funktionen (Rollen- und Aufgabenkonzept) und die Integration der mathematischen Werkzeuge gegeben. Mit einer Diskussion der erreichten Ergebnisse und Überlegungen zu Weiterentwicklungen der Lernumgebung vPSM schließt die Arbeit ab.



http://www.db-thueringen.de/servlets/DocumentServlet?id=7382
Lauckner, Silvio;
Modellbildung und Simulation analoger Systemkomponenten auf höherem Abstraktionsniveau. - Berlin : Logos-Verl., 2006. - XVIII, 110 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2006
ISBN 3832514171

Gegenstand der vorliegenden Arbeit ist es, alternative Simulationskonzepte für analoge Systemkomponenten vorzustellen und deren Leistungsfähigkeit anhand praktischer Beispiele zu demonstrieren. Insbesondere auf abstrakteren Modellsichten existieren bisher noch keine allgemein anwendbaren Lösungsansätze, die eine umfassende Analyse des Verhaltens analoger Realisierungen gestatten. Diese Arbeit soll helfen, mögliche Wege aufzuzeigen, wie die - für eine Entwurfsautomatisierung - notwendige Abstraktion des Systemverhaltens auch auf analogem Sektor erreicht werden kann. Das im Hauptteil vorgestellte Konzept gestattet es erstmalig, die Nutzsignal-Verarbeitung unter Berücksichtigung von Störeinflüssen zu analysieren. Zur Demonstration der Funktionstüchtigkeit wurden alle vorgestellten Methoden als Bibliothekselemente in eine Simulationsumgebung integriert. Beispiele bekannter technischer Systeme, die sich dahinter verbergenden Modellierungstrategien sowie die damit erzielten Resultate werden in der Arbeit ebenfalls ausführlich diskutiert. Sie gestatten einen objektiven Vergleich mit bekannten Ergebnissen traditioneller Analyseansätze und unterstreichen den vorteilhaften Einsatz abstrahierter Modellsichten im Analogentwurf. Ein solches Werkzeug kann den Entwickler bei seiner Arbeit aktiv unterstützen und den Entwurfsprozeß analoger Baugruppen entscheidend verkürzen.



Yakimchuk, Vera;
Entwicklung einer intelligenten computergestützten Lernumgebung für die elektrotechnische Grundlagenausbildung, 2006. - Online-Ressource (PDF-Datei: 146 S., 1581 KB). : Ilmenau, Techn. Univ., Diss., 2006
- Parallel als Druckausg. erschienen

Im Rahmen der vorliegenden Arbeit werden Ansätze vorgestellt, die zur Entwicklung einer computergestützten Lernumgebung für ein explorierendes Lernen am Fachgebiet Grundlagen der Elektrotechnik (GET) beitragen und sich als Weiterentwicklung der Forschungen des Fachgebietes in Richtungen multimedialer und intelligenter Lernumgebungen einordnen lassen. Konzeption und Implementierung interaktiver Lernmodule für die GET-Domäne, Einsatz von Ingenieurwerkzeugen in der GET-Lehre, sowie Konzeption und prototypische Implementierung einer wissensbasierten Problemlöseumgebung für GET sind die Aufgabenstellungen dieser Arbeit. Da in virtuellen (computerbasierten) Lernumgebungen für individualisiertes Lernen das Lernen in erster Linie die kognitive Auseinandersetzung des Lernenden mit dem zu lernendem Inhalt (dem Lernobjekt) bedeutet, wird Interaktivität der Lernobjekte zu einem der entscheidenden Qualitätskriterien des Lernens und der Lernumgebungen. Die webbasierte Lernumgebung GETsoft bietet den Lehrenden viele multimediale Komponenten für das Zusammenstellen ihrer Vorlesungen und Übungen. Interaktive Experimente und Aufgaben mit Möglichkeiten zur Selbstkontrolle ermöglichen den Studierenden eine aktive Verarbeitung des Lehrstoffes. Der in der Forschungsgruppe von Prof. C. Möbus (OFFIS, Oldenburg) entwickelte IPSE-Ansatz wurde auf der neuen für den Ansatz Domäne der Grundlagen der Elektrotechnik und für die neuen Aufgabenarten (Formelnanalyse, Lösungsentwurfskontrolle, Schaltungsanalyse) umgesetzt. Die Konzeption der Problemlöseumgebung mileET aus der GET-Sicht und einige Teile der implementierten wissensbasierten Komponente werden in der Arbeit betrachtet. MileET ist eine innovative Art der Lernerunterstützung auf dem GET Gebiet. Das Programm ermöglicht den Lernenden aktives, selbständiges Lernen durch Aufgabenlösen mit und in dem Programm. Studierende haben die Möglichkeit verschiedene Lösungsentwürfe zu verschiedenen Aufgaben zu den Themenfeldern Methoden der Netzwerkberechnung zusammen zu stellen und vom Programm testen zu lassen. Die implementierte wissensbasierte Komponente, eine spezielle Art des Expertensystems, besitzt die Fähigkeit die Aufgaben symbolisch zu lösen, so dass eine flexible und dynamische Lösungserzeugung unter Berücksichtigung der Benutzereingaben stattfindet und eine adaptive Rückmeldung über den Lösungsentwurf sowie eine adaptive Vervollständigung einer unvollständigen Benutzerlösung erfolgen. Den Lehrenden bietet das Programm die Möglichkeit verschiedene (neue) Aufgaben einfach zu erstellen und die Korrekturarbeit dem Programm zu überlassen. Die Überlegungen zur Weiterentwicklung der intelligenten Lernumgebung GETsoft sind schließen die Arbeit ab.



http://www.db-thueringen.de/servlets/DocumentServlet?id=7096
Rummler, Andreas;
Ein generischer Ansatz zur vereinheitlichten strukturellen und funktionalen Modellierung Evolutionärer Algorithmen. - Berlin : Logos-Verl., 2006. - XVI, 268 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2006
ISBN 383251323X = 978-3-8325-1323-8

Evolutionäre Algorithmen (EA) sind eine Klasse stochastischer Optimierungsverfahren, die das Prinzip der biologischen Evolution als Vorbild nehmen und basierend auf Funktionen wie Selektion, Rekombination und Mutation in der Lage sind, mathematische Optimierungsprobleme zu lösen. Zu ihren Eigenschaften zählen die parallele Suche innerhalb einer Menge von möglichen Lösungen, ihre Anwendbarkeit bei nichtlinearen oder diskontinuierlichen Problemen sowie die selbstständige Umgehung lokaler Optima. Obwohl sich der Einsatz von EA bei der Lösung praxisrelevanter Aufgaben langsam von einem ausschließlichen Nischendasein entfernt und sich mittlerweile vermehrt auch im industriellen Umfeld wiederfindet, ist der Entwurf eines performanten EA für eine gegebene Problemstellung nicht trivial. Dies liegt einerseits an der großen Vielfalt von Freiheitsgraden von einsetzbaren Operationen und modifizierbaren Parametern und andererseits am Fehlen einer geschlossenen Theorie, die die Funktionsweise Evolutionärer Algorithmen mathematisch untermauert. Aufgrund der fehlenden theoretischen Basis für den Entwurf Evolutionärer Algorithmen besteht ein nicht unwesentlicher Teil der Arbeit eines Algorithmenentwicklers im Experimentieren mit genetischen Operatoren und ihrem Zusammenspiel innerhalb eines Algorithmus. Als derzeit einzig mögliche Unterstützung bieten sich Softwarewerkzeuge an, die diese Arbeitsschritte in geeigneter Weise begleiten. In dieser Arbeit wird ein Werkzeug zur rechnergestützten Realisierung von EA vorgestellt. Unter Einsatz moderner Objekt- und Komponententechnologien wird ein generisches objektbasiertes Modell für Evolutionäre Algorithmen vorgeschlagen. Basis des Modells ist die Zerlegung von Algorithmen in autark funktionstüchtige Elementaroperatoren. Diese werden in einem zweiten Schritt in Softwarekomponenten überführt, die sich innerhalb einer Laufzeitumgebung instanziieren, konfigurieren und ausführen lassen. Der diskutierte Ansatz umfaßt dabei die vollständige Modellierung von Algorithmen, Operatoren, der zugrundeliegenden Datenbasis sowie der gegenseitigen Interaktion und Wechselwirkungen. Das Modell wurde in eine prototypische Implementierung überführt, um die praktische Realisierbarkeit aufzuzeigen. Durch den sorgfältigen Entwurf sind Entwickler in der Lage durch die vereinheitlichte Architektur den Aufwand für den Entwurf und die Implementierung von Algorithmen esentlich zu verringern.Beim Design des vorliegenden Prototypen wurde großes Augenmerk auf höchstmögliche Flexibilität bei möglichst einfacher Anwendung gelegt. Die Eigenschaft der Erweiterbarkeit wird dabei anhand der Extraktion von Daten und deren visueller Analyse sowie der Verteilung von Algorithmen auf Computernetzwerke zur Verringerung des Rechenaufwandes demonstriert. Der praktische Einsatz des Werkzeuges wird anhand von Beispielen aus dem Bereich des automatisierten Entwurfs elektronischer Schaltungen sowie aus der Bioinformatik aufgezeigt.


http://deposit.d-nb.de/cgi-bin/dokserv?id=2854211&prov=M&dok_var=1&dok_ext=htm

Kunert, Jürgen;
Flussregelschleifen bei 77 Kelvin aus integrierter Regelelektronik und supraleitenden Quanteninterferometern in magnetisch gestörter Umgebung. - Ilmenau : Wiss.-Verl. Thüringen, 2006. - IX, 112 S.. . - (Forschungsberichte aus dem Institut für Informationstechnik. - 9) : Zugl.: Ilmenau, Techn. Univ., Diss., 2006
ISBN 3-936404-18-6

Mit dem Supraleitenden Quanten-Interferenz-Detektor (SQUID) sind empfindlichste Messungen des magnetischen Flusses und entsprechend wandelbarer Größen möglich. Verbesserte SQUID und neue Konzepte der Regelelektronik führten inzwischen zu kommerziell verfügbaren Messsystemen, die nicht nur in urbaner Umgebung stationär operieren, sondern auch bewegt werden können. Die vordere Front der Forschung und Entwicklung bilden hier Arbeiten zu mehrkanaligen Systemen, die während der Messung von Hubschraubern und Flugzeugen transportiert werden. Mit der vorliegenden Arbeit sollen weitere Impulse für die Verbesserung der Regelelektronik von DC-SQUID-Systemen gegeben werden. Gute Aussichten zur Reduzierung des Rauschens und zur Erhöhung der Signalfolgegeschwindigkeit bestehen, wenn die Regelelektronik direkt in Sensornähe und bei einer Temperatur von 77 K platziert wird. In der Arbeit wird die schrittweise Entwicklung einer integrierten BiCMOS-Schaltung (ASIC) für eine direkt gekoppelte Flussregelschleife behandelt. Im letzten Schritt wird die Regelelektronik zusammen mit HTSL-DC-SQUID bei einer Umgebungstemperatur von 77 K in urbaner Umgebung getestet. Ein Spannungsrauschen am Eingang von 240 pV/sqrt(Hz), eine maximale Signalfolgegeschwindigkeit von drei Millionen Flussquanten pro Sekunde, sowie eine Leistungsaufnahme von 52 mW entsprechen dem aktuellen Stand der Technik und stellen in dieser Kombination herausragende Kennwerte für DC-SQUID-Systeme dar. Erfahrungen und Ergebnisse aus dieser Arbeit konnten bereits erfolgreich in alternative Entwicklungen von Flussregelschleifen einfließen.



Grützmacher, Frank;
Zur Architektur verteilter, paralleler multi-user fähiger EDA-Werkzeuge. - Ilmenau : ISLE, 2005. - XVI, 158 S.. Zugl.: Ilmenau : Techn. Univ., Diss., 2005
ISBN 393884308X

Mit der fortschreitenden Miniaturisierung mikroelektronischer Schaltungen und Systeme werden auch die Entwurfswerkzeuge, die sogenannten "Electronic Design Automation"-Tools immer komplexer, die Zahl der eingesetzten, auf spezielle Aufgaben hin optimiertenWerkzeuge steigt. Um den ständig steigenden Anforderungen nach erhöhter Performance (dt. Geschwindigkeit) und verbesserter Integrationsfähigkeit Herr zu werden, bedarf es neuer Ansätze und Implementierungstechniken. In dieser Arbeit werden anhand der analogen High Level Synthese Verteilungs- und Parallelisierungsaspekte diskutiert. Auf Basis des gewählten Komponentenmodells "Enterprise Java Beans" werden Implementierungstechniken im Detail vorgestellt. Neben der Fähigkeit zur Parallelisierung und zur Teilnahme an verteilten Transaktionen, wurde Wert auf die verbesserte Integration neu zu schaffender Werkzeuge gelegt. Der in dieser Arbeit vorgestellte Integrationsrahmen ermöglicht die Nutzung der Werkzeuge und Komponenten über unterschiedliche Middleware (dt. standardisierte Kommunikationssoftware). Die bereitgestellte semantische Adaption verbessert die Robustheit gegenüber Parameter-Änderungen und erlaubt die Nutzung ein und desselben Werkzeugs über unterschiedliche Schnittstellen.