Geconfronteerd met een data deluge wenden astronomen zich tot automatisering

Geconfronteerd met een data deluge wenden astronomen zich tot automatisering
4.4 (88.24%) 17 votes


Op 18 augustus 2017 daagde een nieuw tijdperk in de astronomie terecht met een tweet: “New LIGO. Bron met optische tegenhanger. Blaas je sox eraf! ”Een astronoom had op het pistool gesprongen en tweet vooruit op een officiële aankondiging door LIGO (de Laser Interferometer Gravitational-Wave Observatory). Het observatorium had een uitbarsting van zwaartekrachtsgolven of rimpelingen in ruimtetijd gedetecteerd, en een ronddraaiende gammastralingstelescoop had tegelijkertijd elektromagnetische straling gezien die uit hetzelfde ruimtegebied kwam. De observaties – die werden teruggevoerd op een botsende paar neutronensterren op 130 miljoen lichtjaar afstand – markeerden een scharniermoment voor multimessenger-astronomie, waarin hemelgebeurtenissen worden bestudeerd met behulp van een breed scala van enorm verschillende telescopen en detectoren.

De belofte van multimessenger-astronomie is immens: door niet alleen in licht maar ook in zwaartekrachtsgolven en ongrijpbare deeltjes neutrino's te observeren, kunnen onderzoekers tegelijkertijd een ongekend beeld krijgen van de innerlijke werking van exploderende sterren, galactische kernen en andere exotische fenomenen. Maar de uitdagingen zijn ook groot: naarmate observatoria groter en gevoeliger worden en steeds grotere hoeveelheden ruimte bewaken, kan multimessenger-astronomie in een stortvloed van gegevens verdrinken, waardoor het voor telescopen moeilijker wordt om in realtime te reageren op zich ontvouwende astrofysische gebeurtenissen. Daarom wenden astronomen zich tot machine learning – het type technologie dat leidde tot AlphaGo, de eerste machine die een professionele menselijke Go-speler versloeg.

Machine learning zou de multimessenger-astronomie kunnen stimuleren door cruciale vroege fasen van ontdekking te automatiseren, waardoor potentiële signalen uit de stroom van met ruis gevulde gegevens worden geweerd, zodat astronomen zich kunnen concentreren op de meest prikkelende doelen. Maar deze techniek belooft meer. Astrofysici proberen het ook om clusters van sterrenstelsels te wegen en simulaties met hoge resolutie te maken die nodig zijn om kosmische evolutie te bestuderen. En ondanks zorgen over hoe machine learning-algoritmen werken, zijn de verbazingwekkende verbeteringen die ze bieden voor snelheid en efficiëntie onbetwistbaar.

"Dit is als een tsunami", zegt Eliu Huerta, een onderzoeker van astrofysici en kunstmatige intelligentie bij het National Center for Supercomputing Applications (NCSA) aan de Universiteit van Illinois in Urbana-Champaign. "Mensen realiseren zich dat we voor de big data die we (komen) in de toekomst niet langer kunnen vertrouwen op wat we in het verleden hebben gedaan."

De zwaartekrachtgolf-hotline

Het verleden strekt zich in het geval van LIGO en zijn Europese tegenhanger Maagd niet zo ver uit. Het was pas in februari 2016 dat die observatoria de allereerste detectie van zwaartekrachtsgolven aankondigden, geproduceerd door de samenvoeging van twee zwarte gaten. In hun derde waarnemingsrun, die in april begon, zijn geavanceerde versies van LIGO en Maagd begonnen met het verzenden van openbare waarschuwingen over nieuwe potentiële bronnen van zwaartekrachtgolven zodra deze worden gedetecteerd, allemaal om multimessenger-waarnemingen beter te ondersteunen.

Deze oefening lijkt misschien routine, maar schuilt in de enorme inspanning die nodig is voor elke detectie. De signalen die LIGO verzamelt, moeten bijvoorbeeld door supercomputers worden vergeleken met honderdduizenden sjablonen met mogelijke zwaartekrachtsgolfhandtekeningen. Veelbelovende signalen activeren een interne waarschuwing; degenen die extra onderzoek overleven, activeren een publieke waarschuwing zodat de wereldwijde astronomiegemeenschap op zoek kan gaan naar tegenhangers van elektromagnetische en neutrino's.

Sjabloonafstemming is zo rekenintensief dat astronomen voor zwaartekrachtgolven geproduceerd door fusies slechts vier attributen van de botsende kosmische objecten gebruiken (de massa's van beide en de grootten van hun spins) om realtime detecties te doen. Van daaruit brengen LIGO-wetenschappers uren, dagen of zelfs weken door met het offline verwerken van meer verwerking om het begrip van de signaalbronnen verder te verfijnen, een taak die parameterschatting wordt genoemd.

Op zoek naar manieren om dat labyrintische proces sneller en efficiënter te maken, in werk gepubliceerd in 2018, richtten Huerta en zijn onderzoeksgroep bij NCSA zich op machine learning. Specifiek, Huerta en zijn toen afgestudeerde student Daniel George pionierden het gebruik van zogenaamde convolutionele neurale netwerken (CNN's), die een soort diepgaand leeralgoritme zijn, om zwaartekrachtsignalen in realtime te detecteren en te ontcijferen. Diepgaande algoritmen gebruiken netwerken gemaakt van lagen. Elke laag bestaat uit knopen gemodelleerd naar de activiteit van neuronen in het menselijk brein. Grofweg betekent het trainen of onderwijzen van een deep learning-systeem dat het gegevens moet invoeren die al zijn gecategoriseerd – bijvoorbeeld afbeeldingen van sterrenstelsels die door veel ruis zijn verduisterd – en het netwerk de patronen in de gegevens correct laten identificeren. De trainingsgegevensset kan tienduizenden, zo niet miljoenen exemplaren van eerder geclassificeerde gegevens bevatten. Het netwerk leert door de verbindingen tussen zijn neuronachtige knooppunten zodanig af te stemmen dat het uiteindelijk niet-gecategoriseerde gegevens kan begrijpen.

Na hun aanvankelijke succes met CNN's, hebben Huerta en George, samen met Huerta's afgestudeerde student Hongyu Shen, deze inspanning opgevoerd door diepgaande leeralgoritmen te ontwerpen die werden getraind op supercomputers met miljoenen gesimuleerde handtekeningen van zwaartekrachtgolven vermengd met ruis afkomstig van eerdere observaties runs van Advanced LIGO – een upgrade naar LIGO voltooid in 2015. Deze neurale netwerken hebben geleerd signalen te vinden die zijn ingebed in Advanced LIGO-ruis.

Er zijn cruciale verschillen tussen deze aanpak en de standaardmethoden van LIGO. Het belangrijkste is dat diepgaande algoritmen zowel detectie als parameter-schatting in realtime kunnen doen. Bovendien kunnen ze gemakkelijk meer parameters direct verwerken dan de vier die LIGO momenteel beheert. Bijvoorbeeld Adam Rebei, een middelbare scholier in de groep van Huerta, dat diep leren de complexe zwaartekrachtsignalen kan identificeren die worden geproduceerd door de samenvoeging van zwarte gaten in excentrische banen – iets wat LIGO's traditionele algoritmen niet in realtime kunnen doen. "Voor elk zwart gatfusiesignaal dat LIGO heeft gedetecteerd dat in publicaties is gerapporteerd, kunnen we al deze parameters in twee milliseconden reconstrueren", zegt Huerta. De traditionele algoritmen daarentegen kunnen dagen nodig hebben om dezelfde taak te volbrengen.

Vanwege zijn vermogen om over een grotere set parameters te zoeken, kan een diep lerend systeem mogelijk handtekeningen herkennen die LIGO anders zou missen. En hoewel voor training supercomputers nodig zijn, is het neurale netwerk eenmaal getraind slank en soepel, met een extreem kleine rekenkracht footprint. "Je kunt het op de telefoon zetten en LIGO-gegevens in realtime verwerken", zegt Huerta.

Kunstmatige ogen aan de hemel

Huerta werkt nu samen met Erik Katsavounidis, lid van de LIGO-samenwerking aan het Massachusetts Institute of Technology, om diepgaande algoritmen in de echte wereld te testen. "Het doel is om sommige van deze algoritmen te implementeren tijdens de derde en vierde waarnemingsruns van de LIGO- en Maagd-detectoren," zegt Huerta. "Het is een goed sociaal experiment om te zien hoe we reageren op bijvoorbeeld neurale netten die complexe signalen vinden die niet door andere algoritmen worden waargenomen."

Indien succesvol, zal een dergelijk diepgaand leersysteem zeer efficiënt zijn in het genereren van waarschuwingen voor andere telescopen. De meest ambitieuze van deze telescopen, nog in aanbouw bovenop Cerro Pachón in Chili, is de Large Synoptic Survey Telescope (LSST). Wanneer voltooid, kan de 8,4-meter LSST in één keer 10 vierkante graden van de hemel waarnemen (equivalent aan 40 volle manen), en elke nacht 15 tot 20 terabytes ruwe gegevens produceren—. Binnen die enorme stroom zullen de astronomen van LSST op zoek gaan naar supernovae, botsende sterren en andere voorbijgaande of variabele fenomenen – bronnen die tijdelijk oplichten in het elektromagnetische spectrum en vervolgens vervagen over uren, dagen of weken. De wetenschappelijke waarde van een gegeven voorbijgaande is meestal evenredig met hoe snel en grondig follow-up waarnemingen plaatsvinden.

"We moeten in staat zijn om via een miljoen tot 10 miljoen waarschuwingen van plaatsen aan de hemel te veranderen die elke nacht veranderen en in realtime beslissen wat de moeite waard is om kostbare middelen te gebruiken voor follow-up", zegt Joshua Bloom, een astrofysicus en machine-learning expert aan de Universiteit van Californië, Berkeley. “Machine learning zal daarin een grote rol spelen.” Dergelijke benaderingen zijn al lonend voor voorlopers van LSST, inclusief de Zwicky Transient Facility (ZTF), die een camera gebruikt met een gezichtsveld van 47 vierkante graden, geïnstalleerd op een 1,2 metertelescoop bij het Palomar Observatorium in Californië. Dmitry Duev van het California Institute of Technology en zijn collega's hebben onlangs in een voordruk geschreven dat a astronomen al helpt bij het volgen van asteroïden en andere snel bewegende objecten nabij de aarde. "We kunnen de efficiëntie van het detecteren van strepen asteroïden met een paar orden van grootte verbeteren", schreven de onderzoekers.

Soortgelijke technieken kunnen worden gebruikt om naar andere tijdelijke bronnen in ZTF-gegevens te zoeken. "Machine learning is ongelooflijk belangrijk voor het succes van het project", zegt Bloom. De andere belangrijke component van multimessenger-astronomie is de detectie van neutrino's, die worden uitgezonden naast elektromagnetische straling van astrofysische objecten zoals blazars. (Blazars zijn quasars – zeer lichtgevende objecten aangedreven door gigantische zwarte gaten in de centra van verre sterrenstelsels – waarvan de stralen van energierijke deeltjes en straling naar de aarde zijn gericht.)

, IceCube, een neutrinodetector bestaande uit 5.160 sensoren ingebed in een kubieke kilometer ijs onder de Zuidpool, detecteerde neutrino's van een blazar. De sensoren zoeken naar lichtstrepen gemaakt door deeltjes die muonen worden genoemd, die ontstaan ​​wanneer neutrino's het ijs raken. Maar het handjevol neutrino-gegenereerde muonen kan worden overtroffen door de miljoenen muonen die worden gecreëerd door kosmische stralen die De atmosfeer van de aarde. IceCube moet in wezen door dit moeras van muon-tracks bladeren om die van neutrino's te identificeren – een taak op maat gemaakt voor machine learning.

Nicholas Choma van de universiteit van New York en zijn collega's rapporteerden in september in een preprint-paper de ontwikkeling van een speciaal type diepgaand leeralgoritme, een neuraal netwerk voor grafieken, waarvan de verbindingen en architectuur profiteren van de ruimtelijke geometrie van de sensoren in het ijs en het feit dat slechts enkele sensoren het licht van een bepaald muon-spoor zien. Met behulp van gesimuleerde gegevens, die een mix van achtergrondruis en signalen hadden, toonden de onderzoekers aan dat hun evenveel gebeurtenissen als de niet-machine-leerbenadering die momenteel wordt gebruikt door IceCube.

Huerta is onder de indruk van deze prestaties. "Als we deze volgende generatie instrumenten ontwikkelen of bouwen om het universum in hoge mate te bestuderen, kunnen we ook betere algoritmen ontwerpen om deze gegevens te verwerken," zegt hij.

Einstein in a Box

Hoe belangrijk deze vooruitgang ook is, diepgaande algoritmen brengen een grote zorg met zich mee. Ze zijn in wezen 'zwarte dozen', met de details van hun activiteiten verborgen door de interconnectiviteit van hun gelaagde componenten en de duizenden tot miljoenen instelbare parameters die nodig zijn om ze te laten functioneren. Kortom, zelfs experts die van buitenaf naar binnen kijken, zijn moeilijk onder druk te staan ​​om precies te begrijpen hoe een bepaald diepgaand leeralgoritme tot een beslissing komt. "Dat is bijna haaks op de manier waarop natuurkundigen graag over de wereld denken, namelijk dat er – en er zouden moeten zijn – zeer eenvoudige wiskundige functies zijn die de manier beschrijven waarop de wereld werkt," zegt Bloom.

Michelle Ntampaka, een onderzoeker op het gebied van astrofysica en machine-learning aan Harvard University en haar collega's, krijgt inzicht in wat machine learning-algoritmen doen. Ze hebben het netwerk getraind en getest met 7.896 gesimuleerde röntgenfoto's van 329 massieve clusters, ontworpen om te lijken op die gegenereerd door de Chandra X-ray Observatory. Het CNN werd net zo goed als traditionele technieken bij het afleiden van de massa van een cluster. Maar hoe deed dat neurale net zijn werk?

Om erachter te komen, gebruikten Ntampaka en haar team een ​​techniek die was ontwikkeld door het DeepDream-project van Google, waarmee mensen kunnen visualiseren wat een diep lerend netwerk ziet. Het team van Ntampaka ontdekte dat het CNN had geleerd fotonen uit de kern van de clusters te negeren en meer aandacht besteedde aan fotonen uit hun periferie om voorspellingen te doen. Astronomen waren ongeveer tien jaar eerder empirisch tot deze exacte oplossing gekomen. "Het is opwindend dat het heeft geleerd om de kernen weg te snijden, want dit is een bewijs dat we deze neurale netwerken nu kunnen gebruiken om terug te verwijzen naar de onderliggende fysica," zegt Ntampaka.

Voor Ntampaka suggereren deze resultaten dat systemen voor machine learning niet volledig immuun zijn voor interpretatie. "Het is een misverstand binnen de gemeenschap dat het alleen zwarte dozen kunnen zijn", zegt ze. “Ik denk dat interpreteerbaarheid aan de horizon ligt. Het komt eraan. We beginnen het nu te kunnen doen. 'Maar ze erkent ook dat als haar team de onderliggende fysica die de röntgenemissies van melkwegclusters met hun massa verbinden, niet al had geweten, het misschien niet had ontdekt dat het neurale netwerk het uitsnijden van de kernen uit zijn analyse.

De kwestie van interpreteerbaarheid is naar voren gekomen in het werk van astrofysicus Shirley Ho van het Flatiron Institute in New York City en haar collega's. De onderzoekers bouwden een algoritme voor diep leren, dat ze het Deep Density Displacement Model of D noemen3M (uitgesproken als "dee cube em"), om op efficiënte wijze simulaties met hoge resolutie van ons universum te maken. Wanneer telescopen gegevens verzamelen over de grootschalige structuur van het universum, worden die gegevens vergeleken met onze beste simulaties, die zelf zijn gebaseerd op theorieën zoals algemene relativiteitstheorie en kwantummechanica. De beste overeenkomsten kunnen kosmologen helpen de fysica te begrijpen die de evolutie van het universum beheerst. Hoge-resolutiesimulaties zijn echter extreem duur – ze kunnen miljoenen of tientallen miljoenen uren computertijd vergen. Dus kosmologen nemen vaak hun toevlucht tot snellere lage-resolutie simulaties, die vereenvoudigende veronderstellingen maken maar minder nauwkeurig zijn.

Ho en haar collega's genereerden eerst 10.000 paar simulaties, elk paar bestaande uit een lage resolutie, of lage resolutie, simulatie van de evolutie van een volume ruimte met ongeveer 32.000 melkwegstelsels en een hoge resolutie, of hoge resolutie, simulatie van hetzelfde volume. Ze trainden vervolgens D3M per paar, waardoor het een low-res simulatie – die slechts milliseconden nodig heeft om te genereren – als input geeft en het de high-res tegenhanger maakt. Eens D3M had dit geleerd, het produceerde elke high-res simulatie voor elke gegeven low-res simulatie in ongeveer 30 milliseconden. Deze simulaties waren even nauwkeurig als die gemaakt met standaardtechnieken, die veel ordes van grootte meer tijd vereisen.

Afgezien van de verbluffende versnelling leek het neurale net een beter inzicht in de gegevens te hebben gekregen dan verwacht. De trainingsdataset werd gegenereerd met behulp van slechts één set waarden voor zes kosmologische parameters (zoals de hoeveelheid donkere materie die in het universum wordt verondersteld te bestaan). Maar toen D3M kreeg een low-res simulatie van een universum met een hoeveelheid donkere materie die aanzienlijk anders was dan wat fysici denken dat aanwezig is in ons universum, het produceerde correct een high-res simulatie met de nieuwe donkere materie inhoud, ondanks dat het nooit expliciet was geleerd om dit te doen.

Ho en haar team weten enigszins niet goed waarom D3M slaagt erin high-res simulaties te extrapoleren van low-res simulaties ondanks de verschillende hoeveelheden donkere materie. Het veranderen van de hoeveelheid donkere materie verandert de krachten die sterrenstelsels beïnvloeden, en toch werkt het algoritme. Misschien, zegt Ho, heeft het de extrapolatie voor wijzigingen in slechts één parameter berekend en kan het mislukken als meerdere parameters tegelijk worden gewijzigd. Haar team test momenteel deze hypothese.

De andere 'echte grote mogelijkheid', voegt Ho eraan toe, is dat D3M is een dieper begrip van de natuurwetten tegengekomen. "Misschien is het universum echt eenvoudig en heeft het diepgaande algoritme, net als mensen, de fysieke regels ontdekt", zegt ze. "Dat is zoiets als D zeggen3M heeft de algemene relativiteitstheorie ontdekt zonder Einstein te zijn. Dat zou een interpretatie kunnen zijn. Ik kan je niet vertellen wat goed is. Op dit moment is het bijna filosofisch totdat we meer bewijs hebben. "

Ondertussen werkt het team hard om D te krijgen3M faalt bij het extrapoleren naar verschillende waarden van de kosmologische parameters. “Als D3M faalt op bepaalde manieren in extrapolatie, misschien kan het ons hints geven over waarom het überhaupt werkt, ”zegt Ho.

Helaas is het gebruik van dergelijke geavanceerde technieken in astronomie, astrofysica en kosmologie een kloof. "Het creëert een klein beetje een have-and-have-nots (situatie) in onze gemeenschap", zegt Bloom. "Er zijn mensen die vloeiender en capabeler worden in de taal van het verplaatsen van gegevens en het afleiden van gegevens en degenen die dat niet zijn."

Terwijl de 'haves' steeds betere systemen voor machinaal leren blijven ontwikkelen, is er het verleidelijke vooruitzicht dat deze algoritmen in de toekomst rechtstreeks zullen leren van door telescopen geproduceerde gegevens en vervolgens conclusies moeten trekken, zonder dat training nodig is met gesimuleerde of vooraf gecategoriseerde gegevens – ongeveer zoals de opvolger van de mens veroverende AlphaGo. Terwijl AlphaGo moest worden geleerd met behulp van door mensen gegenereerde gegevens, was de nieuwere versie AlphaGo Zero, leerde zichzelf hoe Go te spelen zonder gegevens van menselijke spellen. Als astrofysica dezelfde weg inslaan, kan de zwarte doos zwarter worden.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *