PROSJEKTOPPGAVER TILBUDT AV EDMUND BREKKE HØSTEN 2015
Flere av oppgavene kan inkludere samarbeid med bedrifter som Kongsberg Maritime, DNV GL, Maritime Robotics og Adigo.
1. Navigasjon for AUV-docking
I dag så må AUVer settes ut og hentes via båt for lading, programmering og nedlasting av data. Dersom AUVen istedet kan koble seg opp mot en dockingstasjon på egenhånd, så vil mye arbeid bli spart og AUVen kan arbeide mer effektivt.
Suksessfull docking forutsetter at AUVen klarer å sikte seg inn mot dockingstasjonen med en passende hastighet. Dette stiller store krav til nøyaktighet, og AUVen må utstyres med en sensor som kan måle den relative posisjonen mellom AUVen og dockingstasjonen. Til dette kan for eksempel USBL (ultra-short baseline) brukes.
I denne oppgaven ønsker vi å sammenligne ulike estimeringsteknikker for dette problemet. Dette kan involvere metoder basert på Kalman filter, utvidet Kalman filter, sigma-punkt Kalman filter, partikkelfilter, observere etc. Det vil også være ønskelig å utforske likheter og forskjeller mellom dette problemet og SLAM-liknende lokaliseringsproblemer. Metodene testes gjennom simuleringer, men det vil også være muligheter å delta i eksperimenter for å ta i bruk reelle data.
Veileder: Edmund Brekke
Medveileder: Albert Sans Muntadas
2. Adaptiv filtrering
av akustiske sensorer
Akustiske sensorer kjennetegnes ved at de hurtig endrer støykarakteristikk. Disse kan derfor ikke bruke saktevarierende modeller for å beskrive støyen.
Oppgaven går ut på å finne metoder for god adaptiv filtrering/online system-identifikasjon av akustiske målinger når de brukes i treghetsnavigasjonen. Metodene skal testes på virkelige data.
Oppgaven er gitt i samarbeid med Kongsberg Maritime AS, med Are Willumsen som veileder i bedrift. Se forøvrig http://www.km.kongsberg.com/hain, http://www.km.kongsberg.com/auv og http://www.navlab.net/.
3. Modellering og
estimering av bølgeindusert feil i trykkmålinger
Trykkmålinger brukes til å måle dybden til en undervannsfarkost, og brukes som input til treghetsnavigasjon. Men overflatebølger sørger for at trykkmålingene har en varierende feil som følge av bølgehøyden, og uten god modell kommer denne feilen igjen i navigasjonssystemet.
Oppgaven går ut på å finne en modell som passer bølgenes natur og samtidig metoder for online systemidentifikasjon av evt. parametre i denne modellen. Modeller og metoder testes på virkelige data.
Oppgaven er gitt i samarbeid med Kongsberg Maritime AS, med Are Willumsen som veileder i bedrift. Se forøvrig http://www.km.kongsberg.com/hain, http://www.km.kongsberg.com/auv og http://www.navlab.net/.
4. Deteksjon av
stillestående farkost
Dersom et fartøy hviler på bakken, vil dette være verdifull input til et treghetsnavigasjonssystem.
Oppgaven går ut på å teste metoder for å bruke trykk og treghetsmålinger (gyro og akselerometre) til å detektere at fartøyet hviler på fast grunn. Metoden(e) skal testes på virkelige data
Oppgaven er gitt i samarbeid med Kongsberg Maritime AS, med Are Willumsen som veileder i bedrift. Se forøvrig http://www.km.kongsberg.com/hain, http://www.km.kongsberg.com/auv og http://www.navlab.net/.
5. Målinger i flere
tidspunkt
Det er vanlig å anta at målinger er øyeblikkobservasjoner, dvs. de måler tilstanden til systemet ved et bestemt tidspunkt. Dette trenger dog ikke være tilfellet, og det fins eksempler på målinger som er et resultat av systemets tilstand enten i flere konkrete øyeblikk eller en lengre kontinuerlig periode. Hvordan skal slike målinger brukes best mulig i estimatorer? Innen undervannsnavigasjon inntreffer slike målinger typisk ved at lyd sendes ut ved et tidspunkt og mottas ved et senere tidspunkt slik at den resulterende målingen blir et resultat av tilstanden ved 2 konkrete tidspunkt.
Oppgaven går ut på å finne passende metoder for bruk av 2-tidspunkts posisjonsmålinger og/eller hastighetsmålinger i et treghetsnavigasjonssystem. Metodene testes gjennom simuleringer.
Oppgaven er gitt i samarbeid med Kongsberg Maritime AS, med Are Willumsen som veileder i bedrift. Se forøvrig http://www.km.kongsberg.com/hain, http://www.km.kongsberg.com/auv og http://www.navlab.net/.
6. Målinger i
asynkron rekkefølge
I sensorfusjon er det vanlig å anta at målinger registreres av fusjonssenteret umiddelbart etter at målingene blir generert av sensorene. I realiteten vil det alltid være en viss forsinkelse. Denne forsinkelsen kan bli betydelig dersom det må gjøres mye preprosessering før målingen kan tas i bruk. Et eksempel er visuell odometri, hvor regnekrevende billedbehandlingsmetoder brukes for å ekstrahere «features» som deretter skal matches for å estimere forflytning av farkosten.
Hvis en måling blir så forsinket at andre målinger (f.eks. fra GPS eller kompass) som er tatt senere blir registrert før den forsinkede målingen, så har vi det som på engelsk kalles out-of-sequence-measurements (OOSM).
I visuell odometri vil det også typisk være tilfelle at målingene er i flere tidspunkt: Målingen av forflytning mellom tidspunkt t_1 og tidspunkt t_2 vil avhenge av både x_1 og x_2.
I denne oppgaven skal det gjøres et literaturstudium av ulike teknikker som har blitt foreslått for å håndtere OOSM siden år 2000. Flere av disse teknikkene skal sammenlignes i simuleringer. Videre skal noen av disse løsningene adapteres for problemer som involverer visuell odometri med målinger i flere tidspunkt.
Literatur:
[Mou2007] Mourikis, A.; Roumeliotis, S. & Burdick, J.: SC-KF Mobile Robot Localization: A Stochastic Cloning Kalman Filter for Processing Relative-State Measurements, IEEE Transactions on Robotics, 2007, vol. 23, side 717-730.
[BS2000] Y.Bar-Shalom:
“Update with out-of-sequence measurements in tracking: exact solution,” Proc.
SPIE, vol. 4048, 2000, side 541–556.
[Maskell2006] Maskell, S. R.; Everitt, R. G.; Wright, R. & Briers, M.: ” Multi-target out-of-sequence data association: Tracking using graphical models”, Information Fusion, 2006, vol. 7, side 434-447.
7. Tett integrasjon
av Doppler og høy-integritets AUV-navigasjon
En AUV kan bruke flere sensorer for å estimere sin egen bevegelse. IMU måler akselerasjon mens Doppler Velocity Log (DVL) måler hastighet i forhold til sjøbunnen. DVL fungerer ved å sende fire ”lydstråler” ned mot havbunnen. Frekvensendringene i de reflekterte signalene forteller oss hvordan AUVen beveger seg. I konvensjonell prosessering av DVL så estimeres AUVens hastighet fra alle fire lydstrålene, og dette estimatet blir så overlevert til et Kalmanfilter som estimerer posisjon, orientering og andre kinematiske tilstander til AUVen. DVL kan gi svært nøyaktige hastighetsestimater når alt fungerer som det skal, men dersom en eller flere lydstrålene er korrumpert så vil hastighetsestimatet bli ubrukelig. Et alternativ er derfor å mate frekvensendringene til de inviduelle lydstrålene direkte inn i Kalmanfilteret. Dette kalles tett integrasjon. I denne oppgaven skal det utvikles metoder for tett integrasjon av Doppler. Videre skal ytelsen til disse analyseres, for eksempel via Cramer-Rao’s nedre skranke.
8. Følging av svake
mål
Et tradisjonelt målfølgingssystem består normalt av følgende komponenter. Signalbehandling genererer et bilde av overvåkningsregionen basert på f.eks. radar- eller sonardata. En deteksjonsmetode brukes for å ekstrahere et begrenset antall punktmålinger fra dette bildet. Disse punktmålingene assosieres til spor (tracks), og sporene oppdateres via filtreringsmetoder som f.eks. et Kalmanfilter.
Deteksjons- og assosiasjonskomponentene er generelt sett vanskeligere å gjennomføre dess lavere signal-til-støyforholdet (SNR) er. For moderat manøvrerende mål så er 10dB ansett som en nedre grense for hva standardmetoder som PDAF kan håndtere. For lavere SNR må man bruke mer kompliserte og regnekrevende metoder som multippel hypothese-tracking (MHT). For SNR under 4dB vil også MHT få store problemer, og man må bruke spesielle metoder beregnet på svake mål. Dette inkluderer track-before-detect-metoder (TBD) som jobber direkte med billeddataene uten å ekstrahere målinger. Mange forskere har rapportert gode resultater for TBD i simuleringer, men atskillig færre forskere har rapportert tilsvarende for reelle data. Det finnes også alternativer til TBD, som ML-PDA, som også har vist et lovende potensiale.
I denne oppgaven skal kandidaten implementere ulike tracking-metoder på semi-reelle sonardata, generert ved å legge et simulert mål inn i reelle bakgrunnsdata. På denne måten kan man undersøke ytelse som funksjon av SNR på en kontrollert måte under realistiske omstendigheter. En eller flere TBD-metoder skal sammenlignes med PDAF og eventuelt andre deteksjonsbaserte metoder.
[Brekke2010a] Brekke, E.; Hallingstad, O. & Glattetre, J.: The Signal-to-Noise Ratio of Human Divers, Proceedings of OCEANS'10, 2010.
[Brekke2010a] Brekke, E.: Clutter Mitigation for Target Tracking, PhD-avhandling, 2010, NTNU.
[Davey2008] Davey, S.; Rutten, M. G. & Cheung, B.: A Comparison of Detection Performance for Several Track-before-Detect Algorithms, EURASIP Journal on Advances in Signal Processing, 2008.
9. Partikkelfilter
for posisjonering av mobile roboters
Et godt estimat på posisjon og orientering til en mobil robot er et helt nødvendig grunnlag for å kunne tilby autonom funksjonalitet på roboten. Både lavnivå mål (f.eks. å følge en trajektor) og høynivå mål (f.eks. oppgave re-planlegging og kartlegging) er avhengige av å ha kontinuerlig oppdatert informasjon om disse tilstandene.
Det utvikles ved SINTEF IKT et rammeverk for posisjonering av mobile roboter, som håndterer sending/mottak av data fra mange ulike posisjoneringssensorer, og muligheter for å implementere ulike datafiltreringsteknikker. Denne oppgaven går ut på å designe, implementere og validere sannsynlighetsbaserte metoder med spesielt fokus på inkludering av data fra laserscanner og map matching. Oppgaven omfatter følgende:
1. Sette seg inn i og levere en oversikt over eksisterende brukbare MCL algoritmer (monte carlo localization) for map matching.
a. Grunnleggende Bayesiske metoder
b. State of the art lokaliseringsmetoder
2. Ta utgangspunkt i en av teknikkene, foreslå et design og implementer i MATLAB eller C++
3. Validere egenskapene i SINTEF/NTNU posisjoneringslab.
a. Definere et casestudie med tilhørende detaljert kart
b. Samle inn data fra en sensor plattform navigert i labmiljøet, for eksempel med en av SINTEFs mobile roboter.
c. Analyser og validere metode implementasjonen/e ved bruk av det innsamlede datasettet og labbens "ground truth" system.
Foreslått bakgrunnslitteratur:
Sebastian Thrun, Wolfram Burgard and Dieter Fox. Probabilistic Robotics.
MIT Press, 2005.
Oppaven er gitt i samarbeid med SINTEF Anvendt Kybernetikk, med Sigurd Fjerdingen og Johannes Tjønnås som veiledere i bedrift.
10. Cooperative localization
The use of groups of coordinated
agents has been considered promising within operations such as search-and
rescue, oil-spill recovery, ice-management or multi-purpose surveillance. For
some of these applications, measurements from global navigation satellite
systems such as GPS are not available or of poor quality (far north,
underwater, indoor or close to tall buildings or mountains). However, several
sensors are capable of providing measurement regarding relative position
between agents and can be used for localization purpose. These include
vision-based sensors such as cameras and light detection and ranging sensors
(LIDARs), or RF using angle of arrival
and time difference of arrival measurements, [Barooah2010]. Recent research
efforts have shown attitude estimation of unmanned vehicles can be done based
on phased antenna arrays [Costa2012], and it is likely that this technology
also can be used for estimating relative orientation of agents. Acoustic
transponders/transducer can be used for range measurements under water, [Bahr2008].
It is therefore possible to extend the cooperative
localization to also include buoys and underwater vehicles.
Tasks include:
1. Perform a literature study on cooperative localization. Evaluate pros and cons and key challenges.
2. Investigate sensor and communication technology relevant for cooperative localization in a network consisting of aerial, surface and underwater vehicles. Evaluate if the sensor/communication technology is suitable to be fitted on an unmanned vehicle. Key factors may be limited capacity in terms of energy and computational power, size, weight, cost, etc.
3. Implement one of the most promising methods for cooperative localization. Simulate a scenario of multiple agents and evaluate the performance of the navigation system.
Supervisor: Edmund Førland Brekke, Co-supervisor: Esten Ingar Grøtli (Sintef AK)
Literature:
[Barooah2010] P. Barooah, J. Russell, J. Hespanha, Approximate Distributed Kalman Filtering for Cooperative Multi-agent Localization, LNCS 6131, pp. 102-115, 2010
[Bahr2008] A. Bahr and J. J. Leonard, Cooperative Localization for Autonomous Underwater Vehicles, Springer Tracts in Advanced Robotics, pp. 387-395, 2008
[Felisberto2013] P. Felisberto, O. Rodriquez, P. Santos, E. Ey and S. M. Jesus, Experimental Results of Underwater Cooperative Source Localization Using a Single Acoustic Vector Sensor, Sensors, pp. 8856-8878, 2013
[Costa2012] J. P. C. L. da Costa, S. Schwarz, L. F. de A. Gadelha, H. C. de Moura, G. A. Borges, and L. A. dos Reis Pinheiro, Attitude Determination for Unmanned Aerial Vehicles via an Antenna Array, In. Proc. of the 2012 Internation ITG Workshop on Smart Antennas, 2012
11. Vision-based
localization for ground robot and underwater robots
The aim of the project is to study and investigate the
methods to solve the localization problem using vision as the main sensor
input. The work will include two different use-cases and integration with other
sensor sources.
Localization is one of the main challenges to be solved when
trying to develop a robot able to navigate autonomously. There are different
solutions based on different sensors systems, and depending on the type of
environment: for example, lidar systems for indoor environments and GPS for
outdoor environments. These types of sensors provide robust and easy to use
information about the environment, but also very limited. It has not been until
the last 10 years that effective solutions based on image processing have
become available. Visual odometry and visual SLAM and some of the most popular
techniques that tackle this problem, but no general solution exists. Most of
the algorithms are dependent on the environment type and evaluation criteria.
The objective of this project is thus to approach the
problem of a vision-based localization system and propose solutions that work
in a realistic environment. For the evaluation, two different use-cases will be
considered: a wheeled robot navigating in an outdoor environment, and an
underwater robot. In each case, apart from the vision input, additional sensors
will be available and integrated in the proposed framework.
Tasks
1. Analyze
and compare algorithms for visual odometry and visual SLAM to be used in indoor
and outdoor mobile robot navigation
2. Analyze
and compare algorithms for visual place recognition to be used in indoor and
outdoor mobile robot navigation
3. Analyze
the differences and specific challenges associated to underwater operation
4. Besides a
critical literature review, the comparisons must include results from
experiments performed using implementations of few selected algorithms
5. Integrate
a visual odometry or SLAM algorithm and place recognition algorithm to
demonstrate robust localization
6. Integrate
a lidar sensor in the previous framework and demonstrate; test and evaluate in
the wheeled robot. Other available sensor information might also be considered,
such as IMU or odometry.
7. Integrate
an ultrasound imaging sensor in the previous framework and demonstrate; test
and evaluate in the underwater robot. Other available sensor information might
also be considered, such as IMU or depth sensor.
8. Investigate
and suggest methods to create long-term maps in contrast with the short-term
representations used by SLAM systems.
9. Conclude
findings in a report; include as digital appendices the source code and
corresponding documentation
Supervisor : Edmund Førland Brekke
Co-supervisor: Jon Azpiazu
12. Sensorfusjon og
kollisjonsunngåelse for ASV
Mer informasjon følger senere.