Computersimulaties In De Wetenschap

Inhoudsopgave:

Computersimulaties In De Wetenschap
Computersimulaties In De Wetenschap

Video: Computersimulaties In De Wetenschap

Video: Computersimulaties In De Wetenschap
Video: Marjolein Dijkstra - Computersimulaties 2023, Juni-
Anonim

Toegang navigatie

  • Inhoud van het item
  • Bibliografie
  • Academische hulpmiddelen
  • Vrienden PDF-voorbeeld
  • Info over auteur en citaat
  • Terug naar boven

Computersimulaties in de wetenschap

Voor het eerst gepubliceerd op 6 mei 2013; inhoudelijke herziening do 26 sep.2019

Computersimulatie werd in de periode direct na de Tweede Wereldoorlog gepionierd als wetenschappelijk hulpmiddel in de meteorologie en kernfysica en is sindsdien onmisbaar geworden in een groeiend aantal disciplines. De lijst van wetenschappen die veel gebruik maken van computersimulatie is uitgegroeid tot astrofysica, deeltjesfysica, materiaalkunde, techniek, vloeistofmechanica, klimaatwetenschap, evolutionaire biologie, ecologie, economie, besluitvormingstheorie, geneeskunde, sociologie, epidemiologie en vele anderen. Er zijn zelfs een paar disciplines, zoals chaostheorie en complexiteitstheorie, waarvan het bestaan is ontstaan naast de ontwikkeling van de computationele modellen die ze bestuderen.

Na een langzame start zijn wetenschapsfilosofen meer aandacht gaan besteden aan de rol van computersimulatie in de wetenschap. Verschillende gebieden van filosofische interesse in computersimulatie zijn naar voren gekomen: Wat is de structuur van de epistemologie van computersimulatie? Wat is de relatie tussen computersimulatie en experiment? Levert computersimulatie problemen op voor de wetenschapsfilosofie die niet volledig worden behandeld door recent werk over modellen in het algemeen? Wat leert computersimulatie ons over opkomst? Over de structuur van wetenschappelijke theorieën? Over de rol (indien aanwezig) van ficties in wetenschappelijke modellering?

  • 1. Wat is computersimulatie?

    • 1.1 Een smalle definitie
    • 1.2 Een brede definitie
    • 1.3 Een alternatief standpunt
  • 2. Soorten computersimulaties

    • 2.1 Op vergelijkingen gebaseerde simulaties
    • 2.2 Agent-gebaseerde simulaties
    • 2.3 Multischaalsimulaties
    • 2.4 Monte Carlo-simulaties
  • 3. Simulatiedoeleinden
  • 4. De epistemologie van computersimulaties

    • 4.1 Nieuwe functies van EOCS
    • 4.2 EOCS en de epistemologie van het experiment
    • 4.3 Verificatie en validatie
    • 4.4 EOCS en epistemische rechten
    • 4.5 Pragmatische benaderingen van EOCS
  • 5. Simulatie en experiment
  • 6. Computersimulatie en de structuur van wetenschappelijke theorieën
  • 7. Opkomst
  • 8. Ficties
  • Bibliografie
  • Academische hulpmiddelen
  • Andere internetbronnen
  • Gerelateerde vermeldingen

1. Wat is computersimulatie?

Geen enkele definitie van computersimulatie is geschikt. In de eerste plaats wordt de term zowel in engere als in brede zin gebruikt. In de tweede plaats zou men de term vanuit meer dan één gezichtspunt kunnen begrijpen.

1.1 Een smalle definitie

In zijn engste zin is een computersimulatie een programma dat op een computer wordt uitgevoerd en dat stapsgewijze methoden gebruikt om het benaderde gedrag van een wiskundig model te verkennen. Meestal is dit een model van een real-world systeem (hoewel het systeem in kwestie een denkbeeldige of hypothetische kan zijn). Zo'n computerprogramma is een computersimulatiemodel. Een uitvoering van het programma op de computer is een computersimulatie van het systeem. Het algoritme neemt als input een specificatie van de systeemstatus (de waarde van al zijn variabelen) op een bepaald moment t. Vervolgens berekent het de toestand van het systeem op tijdstip t + 1. Uit de waarden die die tweede toestand kenmerken, berekent het vervolgens de toestand van het systeem op tijdstip t + 2, enzovoort. Wanneer het op een computer wordt uitgevoerd, geeft het algoritme dus een numeriek beeld van de evolutie van de toestand van het systeem,zoals het is geconceptualiseerd in het model.

Deze reeks waarden voor de modelvariabelen kan worden opgeslagen als een grote verzameling 'gegevens' en wordt vaak op een computerscherm bekeken met behulp van visualisatiemethoden. Vaak, maar zeker niet altijd, zijn de visualisatiemethoden ontworpen om de output van een wetenschappelijk instrument na te bootsen, zodat de simulatie een interessant systeem lijkt te meten.

Soms worden de stapsgewijze methoden van computersimulatie gebruikt omdat het model van interesse continue (differentiële) vergelijkingen bevat (die continue veranderingssnelheden in de tijd specificeren) die niet analytisch kunnen worden opgelost - in principe of misschien alleen in de praktijk. Dit onderschrijft de geest van de volgende definitie van Paul Humphreys: "elke computergeïmplementeerde methode om de eigenschappen van wiskundige modellen te onderzoeken waar analytische methoden niet beschikbaar zijn" (1991, 500). Maar zelfs als een enge definitie moet deze zorgvuldig worden gelezen en mag niet worden opgevat dat simulaties alleen worden gebruikt als er analytisch onoplosbare vergelijkingen in het model zijn. Computersimulaties worden vaak gebruikt omdat het oorspronkelijke model zelf discrete vergelijkingen bevat - die direct kunnen worden geïmplementeerd in een algoritme dat geschikt is voor simulatie - of omdat het oorspronkelijke model bestaat uit iets dat beter als evolutieregels wordt beschreven dan als vergelijkingen.

In het eerste geval, wanneer vergelijkingen worden "gediscretiseerd" (het omzetten van vergelijkingen die continue veranderingssnelheden beschrijven in discrete vergelijkingen), moet worden benadrukt dat, hoewel het gebruikelijk is te spreken van simulaties die vergelijkingen "oplossen", een discretisatie kan in het beste geval alleen iets vinden dat de oplossing van continue vergelijkingen benadert, tot op de gewenste nauwkeurigheid. Als we tenslotte spreken van "een computersimulatie" in de engste zin, zouden we het moeten hebben over een bepaalde implementatie van het algoritme op een bepaalde digitale computer, geschreven in een bepaalde taal, met behulp van een bepaalde compiler, enz. Er zijn gevallen waarin verschillende resultaten kunnen worden verkregen als gevolg van variaties in elk van deze gegevens.

1.2 Een brede definitie

Meer in het algemeen kunnen we computersimulatie zien als een alomvattende methode voor het bestuderen van systemen. In deze ruimere zin van het woord verwijst het naar een heel proces. Dit proces omvat het kiezen van een model; een manier vinden om dat model te implementeren in een vorm die op een computer kan worden uitgevoerd; het berekenen van de output van het algoritme; en het visualiseren en bestuderen van de resulterende data. De methode omvat dit hele proces - gebruikt om gevolgtrekkingen te maken over het doelsysteem dat men probeert te modelleren - evenals de procedures die worden gebruikt om die gevolgtrekkingen te bekrachtigen. Dit is min of meer de definitie van computersimulatiestudies in Winsberg 2003 (111). “Succesvolle simulatiestudies doen meer dan cijfers berekenen. Ze gebruiken verschillende technieken om conclusies te trekken uit deze cijfers. Simulaties maken creatief gebruik van rekentechnieken die alleen extra-wiskundig en extra-theoretisch kunnen worden gemotiveerd. Als zodanig zijn de resultaten van simulaties, in tegenstelling tot eenvoudige berekeningen die op een computer kunnen worden uitgevoerd, niet automatisch betrouwbaar. Er wordt veel moeite en expertise gestoken in het bepalen welke simulatieresultaten betrouwbaar zijn en welke niet.” Wanneer wetenschapsfilosofen schrijven over computersimulatie en beweringen doen over welke epistemologische of methodologische eigenschappen "computersimulaties" hebben, bedoelen ze meestal de term die in deze brede zin van een computersimulatiestudie moet worden begrepen. Er wordt veel moeite en expertise gestoken in het bepalen welke simulatieresultaten betrouwbaar zijn en welke niet.” Wanneer wetenschapsfilosofen schrijven over computersimulatie en beweringen doen over welke epistemologische of methodologische eigenschappen "computersimulaties" hebben, bedoelen ze meestal de term die in deze brede zin van een computersimulatiestudie moet worden begrepen. Er wordt veel moeite en expertise gestoken in het bepalen welke simulatieresultaten betrouwbaar zijn en welke niet.” Wanneer wetenschapsfilosofen schrijven over computersimulatie en beweringen doen over welke epistemologische of methodologische eigenschappen "computersimulaties" hebben, bedoelen ze meestal de term die in deze brede zin van een computersimulatiestudie moet worden begrepen.

1.3 Een alternatief standpunt

Voor beide bovenstaande definities is computersimulatie fundamenteel bedoeld om een computer te gebruiken om de wiskundige vergelijkingen van een model op te lossen, of om het ongeveer op te lossen, dat bedoeld is om een systeem weer te geven - echt of hypothetisch. Een andere benadering is om te proberen 'simulatie' onafhankelijk van het begrip computersimulatie te definiëren en vervolgens 'computersimulatie' compositieel te definiëren: als een simulatie die wordt uitgevoerd door een geprogrammeerde digitale computer. Bij deze benadering is een simulatie elk systeem waarvan wordt aangenomen of gehoopt dat het dynamisch gedrag vertoont dat vergelijkbaar is met een ander systeem, zodat het eerste kan worden bestudeerd om meer over het laatste te leren.

Als we bijvoorbeeld een object bestuderen omdat we denken dat het voldoende dynamisch lijkt op een vloeistofbassin om ons te leren over bekkens van vloeistof door het te bestuderen, dan biedt het een simulatie van bekkens van vloeistof. Dit komt overeen met de definitie van simulatie die we in Hartmann vinden: het is iets dat 'het ene proces imiteert door het andere. In deze definitie verwijst de term 'proces' uitsluitend naar een object of systeem waarvan de toestand in de tijd verandert”(1996, 83). Hughes (1999) maakte bezwaar dat de definitie van Hartmann simulaties uitsluit die de structuur van een systeem imiteren in plaats van de dynamiek ervan. Humphreys herzag zijn definitie van simulatie als volgt in overeenstemming met de opmerkingen van Hartmann en Hughes:

Systeem S biedt een kernsimulatie van een object of proces B voor het geval dat S een concreet computationeel apparaat is dat via een tijdelijk proces oplossingen levert voor een computermodel … dat B correct weergeeft, dynamisch of statisch. Als bovendien het door S gebruikte rekenmodel de structuur van het echte systeem R correct weergeeft, dan biedt S een kernsimulatie van systeem R met betrekking tot B. (2004, p. 110)

(Merk op dat Humphreys hier computersimulatie definieert, niet simulatie in het algemeen, maar hij doet het in de geest van het definiëren van een compositorische term.) Opgemerkt moet worden dat de definities van Humphreys simulatie tot een succesterm maken, en dat lijkt jammer. Een betere definitie zou er een zijn die, zoals in de vorige paragraaf, een woord als "geloofde" of "hoopte" op dit probleem op te nemen.

In de meeste filosofische discussies over computersimulatie is het nuttiger concept het begrip gedefinieerd in 1.2. De uitzondering is wanneer het expliciet het doel van de discussie is om computersimulatie te begrijpen als een voorbeeld van simulatie in het algemeen (zie paragraaf 5). Voorbeelden van simulaties die geen computersimulaties zijn, zijn het beroemde fysieke model van de San Francisco Bay (Huggins & Schultz 1973). Dit is een werkend hydraulisch schaalmodel van de San Francisco Bay en Sacramento-San Joaquin River Delta System, gebouwd in de jaren 1950 door het Army Corps of engineers om mogelijke technische ingrepen in de baai te bestuderen. Een ander mooi voorbeeld dat uitgebreid wordt besproken in (Dardashti et al., 2015, 2019) is het gebruik van akoestische 'domme gaten' gemaakt van Bose-Einstein-condensaten om het gedrag van zwarte gaten te bestuderen. Natuurkundige Bill Unruh merkte op dat er in bepaalde vloeistoffen iets zou zijn dat lijkt op een zwart gat als er delen van de vloeistof waren die zo snel bewogen dat golven sneller zouden moeten bewegen dan de geluidssnelheid (iets wat ze niet kunnen doen) om ontsnap eraan (Unruh 1981). Dergelijke regio's zouden in feite een geluidshorizon hebben. Unruh noemde zo'n fysieke opstelling een "dom gat" ("dom" zoals in "dempen") en stelde voor dat het zou kunnen worden bestudeerd om dingen te leren die we niet weten over zwarte gaten. Dit voorstel werd al geruime tijd gezien als niets meer dan een slim idee, maar natuurkundigen realiseren zich onlangs dat ze met behulp van Bose-Einstein-condensaten in het laboratorium domme gaten kunnen bouwen en bestuderen. Het is duidelijk waarom we zo'n opstelling als een simulatie zouden moeten beschouwen: het domme gat simuleert het zwarte gat. In plaats van een computerprogramma te vinden om de zwarte gaten te simuleren, vinden natuurkundigen een vloeistofdynamische opstelling waarvan ze denken dat ze een goed model hebben en waarvoor dat model fundamentele wiskundige overeenkomsten heeft met het model van de systemen van belang. Ze observeren het gedrag van de vloeistofopstelling in het laboratorium om conclusies te trekken over de zwarte gaten. Het punt van de definities van simulatie in deze sectie is dus om te proberen te begrijpen in welke zin computersimulatie en dit soort activiteiten soorten van hetzelfde geslacht zijn. We zouden dan beter in staat zijn te begrijpen waarom een simulatie in de zin van 1.3 die toevallig op een computer draait, overlapt met een simulatie in de zin van 1.2. We komen hierop terug in paragraaf 5.natuurkundigen vinden een vloeistofdynamische opstelling waarvan ze denken dat ze een goed model hebben en waarvoor dat model fundamentele wiskundige overeenkomsten heeft met het model van de systemen van belang. Ze observeren het gedrag van de vloeistofopstelling in het laboratorium om conclusies te trekken over de zwarte gaten. Het punt van de definities van simulatie in deze sectie is dus om te proberen te begrijpen in welke zin computersimulatie en dit soort activiteiten soorten van hetzelfde geslacht zijn. We zouden dan beter in staat zijn te begrijpen waarom een simulatie in de zin van 1.3 die toevallig op een computer draait, overlapt met een simulatie in de zin van 1.2. We komen hierop terug in paragraaf 5.natuurkundigen vinden een vloeistofdynamische opstelling waarvan ze denken dat ze een goed model hebben en waarvoor dat model fundamentele wiskundige overeenkomsten heeft met het model van de systemen van belang. Ze observeren het gedrag van de vloeistofopstelling in het laboratorium om conclusies te trekken over de zwarte gaten. Het punt van de definities van simulatie in deze sectie is dus om te proberen te begrijpen in welke zin computersimulatie en dit soort activiteiten soorten van hetzelfde geslacht zijn. We zouden dan beter in staat zijn te begrijpen waarom een simulatie in de zin van 1.3 die toevallig op een computer draait, overlapt met een simulatie in de zin van 1.2. We komen hierop terug in paragraaf 5.

Barberousse et al. (2009) waren echter kritisch over deze analogie. Ze wijzen erop dat computersimulaties niet werken zoals Unruh's simulatie werkt. Het is niet zo dat de computer als materieel object en het doelsysteem dezelfde differentiaalvergelijkingen volgen. Een goede referentie over simulaties die geen computersimulaties zijn, is Trenholme 1994.

2. Soorten computersimulaties

Er worden vaak twee soorten computersimulaties onderscheiden: simulaties op basis van vergelijkingen en simulaties op agentbasis (of op individuele basis). Computersimulaties van beide typen worden gebruikt voor drie verschillende algemene doeleinden: voorspelling (zowel puntsgewijs als globaal / kwalitatief), begrip en verkennende of heuristische doeleinden.

2.1 Op vergelijkingen gebaseerde simulaties

Op vergelijkingen gebaseerde simulaties worden het meest gebruikt in de natuurwetenschappen en andere wetenschappen waar er een heersende theorie is die de constructie van wiskundige modellen op basis van differentiaalvergelijkingen kan sturen. Ik gebruik de term "op vergelijking gebaseerd" hier om te verwijzen naar simulaties op basis van het soort globale vergelijkingen die we associëren met fysische theorieën - in tegenstelling tot "evolutieregels" (die in de volgende sectie worden besproken). Vergelijkingsgebaseerde simulaties kunnen ofwel op deeltjes gebaseerd, waar er niet veel afzonderlijke lichamen zijn en een reeks differentiaalvergelijkingen die hun interactie regelen, of ze kunnen op het veld zijn gebaseerd, waar er een reeks vergelijkingen is die de tijdevolutie van een continu medium of veld regelen. Een voorbeeld van de eerste is een simulatie van de vorming van sterrenstelsels,waarin de zwaartekrachtsinteractie tussen een eindige verzameling discrete lichamen wordt gediscretiseerd in tijd en ruimte. Een voorbeeld van dit laatste is de simulatie van een vloeistof, zoals een meteorologisch systeem als een zware storm. Hier wordt het systeem behandeld als een continu medium - een vloeistof - en een veld dat de distributie van de relevante variabelen in de ruimte vertegenwoordigt, wordt in de ruimte gediscretiseerd en vervolgens in discrete tijdsintervallen bijgewerkt.

2.2 Agent-gebaseerde simulaties

Op simulatie gebaseerde simulaties komen het meest voor in de sociale en gedragswetenschappen, maar we vinden ze ook in disciplines als kunstmatig leven, epidemiologie, ecologie en elke discipline waarin de netwerkinteractie van veel individuen wordt bestudeerd. Op simulatie gebaseerde simulaties zijn vergelijkbaar met op deeltjes gebaseerde simulaties omdat ze het gedrag van n-veel afzonderlijke individuen vertegenwoordigen. Maar in tegenstelling tot simulaties op basis van vergelijkingsdeeltjes, zijn er geen globale differentiaalvergelijkingen die de bewegingen van individuen bepalen. In simulaties op basis van agenten wordt het gedrag van individuen eerder bepaald door hun eigen lokale regels

Om een voorbeeld te geven: een beroemde en baanbrekende simulatie op basis van agenten was het model van 'segregatie' van Thomas Schelling (1971). De agenten in zijn simulatie waren individuen die op een schaakbord "woonden". De individuen waren verdeeld in twee groepen in de samenleving (bijv. Twee verschillende rassen, jongens en meisjes, rokers en niet-rokers, enz.) Elk vierkant op het bord vertegenwoordigde een huis, met maximaal één persoon per huis. Een persoon is blij als hij / zij een bepaald percentage van de buren van zijn / haar eigen groep heeft. Blije agenten blijven waar ze zijn, ongelukkige agenten verhuizen naar vrije locaties. Schelling ontdekte dat het bord snel evolueerde naar een sterk gescheiden locatiepatroon als de 'geluksregels' van de agenten werden gespecificeerd, zodat segregatie sterk de voorkeur kreeg. Verrassend genoeghij ontdekte ook dat aanvankelijk geïntegreerde borden volledig segregeerden, ook al gaven de geluksregels van de agenten slechts een milde voorkeur aan voor het hebben van buren van hun eigen type.

2.3 Multischaalsimulaties

In paragraaf 2.1 bespraken we op vergelijking gebaseerde modellen die zijn gebaseerd op deeltjesmethoden en modellen die zijn gebaseerd op veldmethoden. Maar sommige simulatiemodellen zijn hybriden van verschillende soorten modelleermethoden. Met name simulatiemodellen met meerdere schalen koppelen modelleerelementen uit verschillende beschrijvingsschalen. Een goed voorbeeld hiervan zou een model zijn dat de dynamiek van bulkstof simuleert door het materiaal te behandelen als een veld dat onder spanning en spanning staat op een relatief grof beschrijvingsniveau, maar dat inzoomt op bepaalde gebieden van het materiaal waar belangrijke kleinschalige effecten zijn plaatsvinden en modelleert die kleinere regio's met relatief meer verfijnde modelleermethoden. Dergelijke methoden kunnen steunen op moleculaire dynamica of kwantummechanica,of beide - elk is een meer verfijnde beschrijving van materie dan wordt geboden door het materiaal als een veld te behandelen. Simulatiemethoden voor meerdere schalen kunnen verder worden onderverdeeld in seriële multischaal- en parallelle multischaalmethoden. De meer traditionele methode is seriële modellering op meerdere schaalniveaus. Het idee hier is om een regio te kiezen, deze op het lagere beschrijvingsniveau te simuleren, de resultaten samen te vatten in een reeks parameters die verteerbaar zijn door het hogere niveau, en ze door te geven aan het deel van het algoritme dat op het hogere niveau berekent.vat de resultaten samen in een reeks parameters die verteerbaar zijn door het model op hoger niveau, en geef ze door aan het deel van het algoritme dat op het hogere niveau berekent.vat de resultaten samen in een reeks parameters die verteerbaar zijn door het model op hoger niveau, en geef ze door aan het deel van het algoritme dat op het hogere niveau berekent.

Seriële multischaalmethoden zijn niet effectief wanneer de verschillende schalen sterk aan elkaar zijn gekoppeld. Wanneer de verschillende schalen sterk op elkaar reageren om het waargenomen gedrag te produceren, is een aanpak vereist die elke regio tegelijkertijd simuleert. Dit wordt parallelle multischaalmodellering genoemd. Parallelle multischaalmodellering is de basis van een bijna alomtegenwoordige simulatiemethode: zogenaamde "subraster" -modellering. Subraster modellering verwijst naar de weergave van belangrijke kleinschalige fysieke processen die plaatsvinden op lengteschalen die niet adequaat kunnen worden opgelost op de rastergrootte van een bepaalde simulatie. (Onthoud dat veel simulaties continue vergelijkingen discretiseren, dus ze hebben een relatief willekeurige eindige "rastergrootte".) In de studie van turbulentie in vloeistoffen bijvoorbeeld,een veelvoorkomende praktische strategie voor berekening is om rekening te houden met de ontbrekende kleinschalige wervels (of draaikolken) die binnen de rastercellen vallen. Dit wordt gedaan door aan de grootschalige beweging een wervelviscositeit toe te voegen die het transport en de dissipatie van energie kenmerkt in de kleinere stroom - of een dergelijke eigenschap die optreedt op een te kleine schaal om door het rooster te worden opgevangen.

In klimaatwetenschap en verwante disciplines wordt modellering van subrasters "parametrering" genoemd. Dit verwijst opnieuw naar de methode om processen te vervangen - processen die te kleinschalig of complex zijn om fysiek in het model te worden weergegeven - door een eenvoudigere wiskundige beschrijving. Dit in tegenstelling tot andere processen - bijvoorbeeld grootschalige stroming van de atmosfeer - die volgens de basistheorie op gridniveau worden berekend. Het wordt "parametrering" genoemd omdat verschillende niet-fysieke parameters nodig zijn om de zeer benaderende algoritmen aan te sturen die de subrasterwaarden berekenen. Voorbeelden van parametrering in klimaatsimulaties zijn de daalsnelheid van regendruppels, de snelheid van atmosferische stralingstransfer en de snelheid van wolkenvorming. Zo is de gemiddelde bewolking meer dan 100 km 2roosterbox is niet netjes gerelateerd aan de gemiddelde luchtvochtigheid over de box. Desalniettemin, naarmate de gemiddelde luchtvochtigheid toeneemt, zal ook de gemiddelde vertroebeling toenemen - vandaar dat er een parameter zou kunnen zijn die de gemiddelde vertroebeling koppelt aan de gemiddelde vochtigheid in een rasterbox. Ook al zijn moderne parametriseringen van wolkenvorming geavanceerder dan dit, het basisidee wordt goed geïllustreerd door het voorbeeld. Het gebruik van subraster modelleringsmethoden in simulatie heeft belangrijke gevolgen voor het begrijpen van de structuur van de epistemologie van simulatie. Dit zal in paragraaf 4 nader worden besproken.

Subraster modelleringsmethoden kunnen worden vergeleken met een ander soort parallel multischaalmodel waarbij de subrasteralgoritmen meer theoretisch zijn, maar worden gemotiveerd door een theorie op een ander beschrijvingsniveau. In het voorbeeld van de hierboven genoemde simulatie van bulkstof wordt het algoritme dat het kleinere beschrijvingsniveau aanstuurt, niet gebouwd door de stoel van de broek. Het algoritme dat het kleinere niveau aanstuurt, is eigenlijk meer theoretisch in principe dan het hogere niveau, in die zin dat de fysica fundamenteler is: kwantummechanica of moleculaire dynamica versus continuümmechanica. Dit soort multischaalmodellen, met andere woorden, combineren de bronnen van theorieën op verschillende beschrijvingsniveaus. Ze bieden dus interessante voorbeelden die ons denken over intertheoretische relaties uitlokken,en dat weerlegt de wijdverbreide opvatting dat een inconsistente reeks wetten geen modellen kan hebben.

2.4 Monte Carlo-simulaties

In de wetenschappelijke literatuur is er een andere grote klasse van computersimulaties genaamd Monte Carlo (MC) -simulaties. MC-simulaties zijn computeralgoritmen die willekeur gebruiken om de eigenschappen van een wiskundig model te berekenen en waarbij de willekeur van het algoritme geen kenmerk is van het doelmodel. Een mooi voorbeeld is het gebruik van een willekeurig algoritme om de waarde van π te berekenen. Als u een eenheidsvierkant op een stuk papier tekent en er een cirkel in schrijft en vervolgens willekeurig een verzameling objecten binnen het vierkant laat vallen, is het aandeel objecten dat in de cirkel terechtkomt ongeveer gelijk aan π / 4. Een computersimulatie die een dergelijke procedure simuleert, wordt een MC-simulatie genoemd voor het berekenen van π.

Veel wetenschapsfilosofen zijn hier afgeweken van de gewone wetenschappelijke taal en hebben ervoor geweken MC-simulaties als echte simulaties te beschouwen. Grüne-Yanoff en Weirich (2010) voeren de volgende redenering aan: “De Monte Carlo-benadering heeft geen mimetisch doel: het imiteert het deterministische systeem niet om als surrogaat te dienen dat in plaats daarvan wordt onderzocht, maar alleen om te bieden een alternatieve berekening van de eigenschappen van het deterministische systeem”(p.30). Dit laat zien dat MC-simulaties niet geschikt zijn voor een van de bovenstaande definities. Aan de andere kant kan de kloof tussen filosofen en gewone taal misschien worden gekwadrateerd door op te merken dat MC-simulaties een denkbeeldig proces simuleren dat kan worden gebruikt om iets te berekenen dat relevant is voor het bestuderen van een ander proces. Stel dat ik een planetaire baan aan het modelleren ben en voor mijn berekening moet ik de waarde van π weten. Als ik de MC-simulatie doe die in de laatste alinea wordt genoemd, simuleer ik het proces van het willekeurig neerzetten van objecten in een vierkant, maar wat ik aan het modelleren ben, is een planetaire baan. In deze zin zijn MC-simulaties simulaties, maar het zijn geen simulaties van de systemen die ze gebruiken om te bestuderen. Zoals Beisbart en Norton (2012) opmerken, zijn sommige MC-simulaties (namelijk die welke MC-technieken gebruiken om stochastische dynamische vergelijkingen op te lossen die verwijzen naar een fysiek systeem) in feite simulaties van de systemen die ze bestuderen. In deze zin zijn MC-simulaties simulaties, maar het zijn geen simulaties van de systemen die ze gebruiken om te bestuderen. Zoals Beisbart en Norton (2012) opmerken, zijn sommige MC-simulaties (namelijk die welke MC-technieken gebruiken om stochastische dynamische vergelijkingen op te lossen die verwijzen naar een fysiek systeem) in feite simulaties van de systemen die ze bestuderen. In deze zin zijn MC-simulaties simulaties, maar het zijn geen simulaties van de systemen die ze gebruiken om te bestuderen. Zoals Beisbart en Norton (2012) opmerken, zijn sommige MC-simulaties (namelijk die welke MC-technieken gebruiken om stochastische dynamische vergelijkingen op te lossen die verwijzen naar een fysiek systeem) in feite simulaties van de systemen die ze bestuderen.

3. Simulatiedoeleinden

Er zijn drie algemene categorieën van doeleinden waarvoor computersimulaties kunnen worden gebruikt. Simulaties kunnen worden gebruikt voor heuristische doeleinden, om gegevens te voorspellen die we niet hebben en om inzicht te krijgen in gegevens die we al hebben.

Onder de categorie heuristische modellen kunnen simulaties verder worden onderverdeeld in simulaties die worden gebruikt om kennis aan anderen over te brengen, en simulaties die worden gebruikt om informatie voor onszelf weer te geven. Toen Watson en Crick met blikken borden en draad speelden, deden ze eerst het laatste en het eerste toen ze de resultaten aan anderen lieten zien. Toen het legerkorps het model van de San Francisco Bay bouwde om de stemgerechtigde bevolking ervan te overtuigen dat een bepaalde interventie gevaarlijk was, gebruikten ze het voor dit soort heuristische doeleinden. Computersimulaties kunnen voor beide doeleinden worden gebruikt om kenmerken van mogelijke representatieve structuren te verkennen; of om kennis over te dragen aan anderen. Bijvoorbeeld: computersimulaties van natuurlijke processen, zoals bacteriële reproductie, tektonische verschuiving, chemische reacties,en evolutie zijn allemaal gebruikt in klaslokalen om studenten te helpen verborgen structuren te visualiseren in fenomenen en processen die onpraktisch, onmogelijk of kostbaar zijn om te illustreren in een "natte" laboratoriumomgeving.

Een andere brede klasse van doeleinden waarvoor computersimulaties kunnen worden gebruikt, is ons te vertellen hoe we kunnen verwachten dat een systeem in de echte wereld zich onder een bepaalde reeks omstandigheden gedraagt. Losjes gezegd: computersimulatie kan worden gebruikt voor voorspelling. We kunnen modellen gebruiken om de toekomst te voorspellen of om het verleden terug te trekken; we kunnen ze gebruiken om nauwkeurige voorspellingen te doen, of losse en algemene voorspellingen. Met betrekking tot de relatieve precisie van de voorspellingen die we doen met simulaties, kunnen we iets fijnmaziger zijn in onze taxonomie. Er zijn a) Puntvoorspellingen: Waar zal de planeet Mars zijn op 21 oktober 2300? b) "Kwalitatieve" of globale of systemische voorspellingen:Is de baan van deze planeet stabiel? Welke schaalwet komt in dit soort systemen naar voren? Wat is de fractale dimensie van de attractor voor dit soort systemen? en c) Bereikvoorspellingen: het is 66% waarschijnlijk dat de wereldwijde gemiddelde oppervlaktetemperatuur tegen 2100 tussen 2 en 5 graden Celsius zal stijgen; het is "zeer waarschijnlijk" dat het zeeniveau minstens twee voet stijgt; het is 'onaannemelijk' dat de thermohaline de komende 50 jaar wordt uitgeschakeld.

Ten slotte kunnen simulaties worden gebruikt om systemen en hun gedrag te begrijpen. Als we al gegevens hebben die ons vertellen hoe een systeem zich gedraagt, kunnen we computersimulatie gebruiken om vragen te beantwoorden over hoe deze gebeurtenissen mogelijk hebben plaatsgevonden; of over hoe die gebeurtenissen werkelijk plaatsvonden.

Bij het nadenken over het onderwerp van de volgende sectie, de epistemologie van computersimulaties, moeten we er ook rekening mee houden dat de procedures die nodig zijn om de resultaten van simulaties goed te keuren, voor een groot deel grotendeels afhangen van welk van de bovengenoemde doeleinden of doeleinden de simulatie wordt gezet.

4. De epistemologie van computersimulaties

Aangezien computersimulatiemethoden in steeds meer disciplines aan belang hebben gewonnen, is het probleem van hun betrouwbaarheid voor het genereren van nieuwe kennis gegroeid, vooral wanneer wordt verwacht dat simulaties worden geteld als epistemische peers met experimenten en traditionele analytisch-theoretische methoden. De relevante vraag is altijd of de resultaten van een bepaalde computersimulatie al dan niet nauwkeurig genoeg zijn voor het beoogde doel. Als een simulatie wordt gebruikt om het weer te voorspellen, voorspelt het dan de variabelen waarin we geïnteresseerd zijn met een mate van nauwkeurigheid die voldoende is om aan de behoeften van zijn consumenten te voldoen? Als een simulatie van de atmosfeer boven een vlakte in het Midwesten wordt gebruikt om de structuur van een zware onweersbui te begrijpen,hebben we er vertrouwen in dat de structuren in de stroming - degene die een verklarende rol zullen spelen in ons verslag waarom de storm soms in tweeën splitst, of waarom het soms tornado's vormt - nauwkeurig genoeg worden weergegeven om ons vertrouwen in de uitleg te ondersteunen ? Als een simulatie wordt gebruikt in engineering en ontwerp, zijn de voorspellingen van de simulatie dan betrouwbaar genoeg om een bepaalde keuze van ontwerpparameters te bekrachtigen, of om onze overtuiging te bekrachtigen dat een bepaald ontwerp van een vliegtuigvleugel zal werken? Ervan uitgaande dat het antwoord op deze vragen soms "ja" is, dat wil zeggen dat dit soort gevolgtrekkingen op zijn minst soms gerechtvaardigd zijn, is de centrale filosofische vraag: wat rechtvaardigt ze? Algemener,hoe kan de bewering dat een simulatie goed genoeg is voor het beoogde doel worden beoordeeld? Dit zijn de centrale vragen van de epistemologie van computersimulatie (EOCS).

Aangezien de bevestigingstheorie een van de traditionele onderwerpen is in de wetenschapsfilosofie, lijkt het voor de hand te liggen dat deze laatste de middelen zou hebben om deze vragen te benaderen. Winsberg (1999) betoogde echter dat als het gaat om onderwerpen die verband houden met de geloofwaardigheid van kennisclaims, de wetenschapsfilosofie zich traditioneel bezighoudt met de rechtvaardiging van theorieën, niet met hun toepassing. De meeste simulaties daarentegen maken, voor zover ze gebruik maken van de theorie, gebruik van de gevestigde theorie. Met andere woorden, EOCS gaat zelden over het testen van de basistheorieën die in de simulatie kunnen worden gebruikt, en meestal over het vaststellen van de geloofwaardigheid van de hypothesen die gedeeltelijk het resultaat zijn van toepassingen van die theorieën.

4.1 Nieuwe functies van EOCS

Winsberg (2001) stelde dat, in tegenstelling tot de epistemologische problemen die centraal staan in de traditionele bevestigingstheorie, een adequate EOCS aan drie voorwaarden moet voldoen. In het bijzonder moet er rekening mee worden gehouden dat de kennis die door computersimulaties wordt voortgebracht, het gevolg is van neerwaartse, bonte en autonome gevolgtrekkingen.

Neerwaarts. EOCS moet weerspiegelen dat in een groot aantal gevallen geaccepteerde wetenschappelijke theorieën het startpunt zijn voor de constructie van computersimulatiemodellen en een belangrijke rol spelen bij de rechtvaardiging van gevolgtrekkingen van simulatieresultaten tot conclusies over echte doelsystemen. Het woord 'neerwaarts' was bedoeld om aan te geven dat, in tegenstelling tot de meeste wetenschappelijke gevolgtrekkingen die traditioneel geïnteresseerde filosofen hebben, die van observatie-instanties naar theorieën gaan, we hier gevolgtrekkingen hebben die (gedeeltelijk) afkomstig zijn van hoge theorie, tot bijzondere kenmerken van verschijnselen.

Bont. EOCS moet er rekening mee houden dat simulatieresultaten niettemin doorgaans niet alleen afhangen van de theorie, maar ook van vele andere modelingrediënten en -bronnen, inclusief parameteriseringen (hierboven besproken), numerieke oplossingsmethoden, wiskundige trucs, benaderingen en idealisaties, regelrechte ficties, ad-hocveronderstellingen, functiebibliotheken, compilers en computerhardware, en misschien wel het belangrijkste, het bloed, zweet en tranen van veel vallen en opstaan.

Autonoom. EOCS moet rekening houden met de autonomie van de door simulatie geproduceerde kennis, in die zin dat de door simulatie geproduceerde kennis niet volledig kan worden gesanctioneerd in vergelijking met observatie. Simulaties worden meestal gebruikt om fenomenen te bestuderen waarin gegevens schaars zijn. In deze omstandigheden zijn simulaties bedoeld om experimenten en waarnemingen als gegevensbronnen over de wereld te vervangen omdat de relevante experimenten of waarnemingen om principiële, praktische of ethische redenen buiten bereik zijn.

Parker (2013) heeft erop gewezen dat het nut van deze voorwaarden enigszins wordt aangetast door het feit dat het te veel gericht is op simulatie in de natuurwetenschappen en andere disciplines waar simulatie theoriegedreven en op vergelijkingen gebaseerd is. Dit lijkt correct. In de sociale en gedragswetenschappen en andere disciplines waar agent-based simulatie (zie 2.2) meer de norm is, en waar modellen worden gebouwd bij gebrek aan gevestigde en kwantitatieve theorieën, zou EOCS waarschijnlijk in andere termen moeten worden gekarakteriseerd.

Sommige sociale wetenschappers die agent-based simulatie gebruiken, volgen bijvoorbeeld een methodologie waarin sociale fenomenen (bijvoorbeeld een waargenomen patroon zoals segregatie) worden verklaard of verklaard door vergelijkbare ogende verschijnselen te genereren in hun simulaties (Epstein en Axtell 1996; Epstein 1999). Maar dit roept zijn eigen soort epistemologische vragen op. Wat is er precies bereikt, wat voor soort kennis is opgedaan als een waargenomen sociaal fenomeen min of meer wordt gereproduceerd door een agent-based simulatie? Telt dit als een verklaring voor het fenomeen? Een mogelijke verklaring? (zie bijv. Grüne-Yanoff 2007). Giuseppe Primiero (2019) stelt dat er een heel domein van "kunstmatige wetenschappen" is opgebouwd rond agent-gebaseerde en multi-agent-systeem gebaseerde simulaties,en dat het zijn eigen epistemologie vereist - een waarbij validatie niet kan worden gedefinieerd door vergelijking met een bestaand real-world systeem, maar moet worden gedefinieerd ten opzichte van een beoogd systeem.

Het is ook redelijk om te zeggen, zoals Parker doet (2013), dat de hierboven geschetste omstandigheden onvoldoende aandacht besteden aan de verschillende en verschillende doeleinden waarvoor simulaties worden gebruikt (zoals besproken in 2.4). Als we een simulatie gebruiken om gedetailleerde kwantitatieve voorspellingen te doen over het toekomstige gedrag van een doelsysteem, vereist de epistemologie van dergelijke gevolgtrekkingen mogelijk strengere normen dan die welke betrokken zijn wanneer de gevolgtrekkingen die worden gemaakt, gaan over het algemene, kwalitatieve gedrag van een geheel klasse van systemen. Het is inderdaad ook redelijk om te zeggen dat er veel meer werk zou kunnen worden gedaan bij het classificeren van het soort doeleinden waarvoor computersimulaties worden gebruikt en de beperkingen die die doeleinden opleggen aan de structuur van hun epistemologie.

Frigg en Reiss (2009) voerden aan dat geen van deze drie voorwaarden nieuw is voor computersimulatie. Ze voerden aan dat gewone kenmerken van 'papier en potlood' deze kenmerken bevatten. Ze voerden zelfs aan dat computersimulatie onmogelijk nieuwe epistemologische problemen zou kunnen opleveren, omdat de epistemologische problemen duidelijk zouden kunnen worden onderverdeeld in de vraag of het model dat aan de simulatie ten grondslag ligt, een kwestie is die identiek is aan de epistemologische problemen die zich voordoen bij gewone modellering, en de vraag naar de juistheid van de oplossing voor de modelvergelijkingen die door de simulatie worden geleverd, wat een wiskundige vraag is, en niet een vraag die verband houdt met de epistemologie van de wetenschap. Op het eerste punt antwoordde Winsberg (2009b) dat het de gelijktijdige samenvloeiing van alle drie de functies was die nieuw was voor simulatie. We komen terug op het tweede punt in paragraaf 4.3

4.2 EOCS en de epistemologie van het experiment

Een deel van het werk aan de EOCS heeft analogieën tussen computersimulatie ontwikkeld om te putten uit recent werk in de epistemologie van experimenten, met name het werk van Allan Franklin; zie het artikel over experimenten in de natuurkunde.

In zijn werk over de epistemologie van experimenten identificeerde Franklin (1986, 1989) een aantal strategieën die onderzoekers gebruiken om het rationele vertrouwen in hun resultaten te vergroten. Weissart (1997) en Parker (2008a) pleitten voor verschillende vormen van analogie tussen deze strategieën en een aantal beschikbare strategieën voor simulationisten om hun resultaten te bekrachtigen. De meest gedetailleerde analyse van deze relaties is te vinden in Parker 2008a, waar ze deze analogieën ook gebruikt om zwakke punten in de huidige benaderingen van de evaluatie van simulatiemodellen te benadrukken.

Winsberg (2003) maakt ook gebruik van het werk van Ian Hacking (1983, 1988, 1992) over de filosofie van experiment. Een van Hackings centrale inzichten over experimenten is vastgelegd in zijn slogan dat experimenten een eigen leven leiden '(1992: 306). Met deze slogan wilde hacken twee dingen overbrengen. De eerste was een reactie tegen het onstabiele beeld van de wetenschap dat bijvoorbeeld van Kuhn komt. Hacking (1992) suggereert dat experimentele resultaten zelfs bij dramatische veranderingen in de andere wetenschappen stabiel kunnen blijven. Het tweede, verwante punt dat hij wilde overbrengen, was dat 'experimenten organisch zijn, ontwikkelen, veranderen en toch een zekere ontwikkeling op lange termijn behouden, waardoor we het hebben over herhaalde en replicerende experimenten' (1992: 307). Sommige technieken die simulationisten gebruiken om hun modellen te construeren, worden op dezelfde manier geleend als Hacking zegt dat instrumenten en experimentele procedures en methoden dat doen; de geloofsbrieven ontwikkelen zich over een langere periode en worden diep traditie gebonden. In de taal van Hacking worden de technieken en sets van aannames die simulatoren gebruiken, 'zelfvoldaan'. Misschien zou een betere uitdrukking zijn dat ze hun eigen geloofsbrieven dragen. Dit geeft een antwoord op het probleem in 4.1, namelijk begrijpen hoe simulatie een levensvatbare epistemologie zou kunnen hebben, ondanks de bonte en autonome aard van de gevolgtrekkingen.de technieken en veronderstellingen die simulatoren gebruiken, worden 'zelfvoldaan'. Misschien zou een betere uitdrukking zijn dat ze hun eigen geloofsbrieven dragen. Dit geeft een antwoord op het probleem in 4.1, namelijk begrijpen hoe simulatie een levensvatbare epistemologie zou kunnen hebben, ondanks de bonte en autonome aard van de gevolgtrekkingen.de technieken en veronderstellingen die simulatoren gebruiken, worden 'zelfvoldaan'. Misschien zou een betere uitdrukking zijn dat ze hun eigen geloofsbrieven dragen. Dit geeft een antwoord op het probleem in 4.1, namelijk begrijpen hoe simulatie een levensvatbare epistemologie zou kunnen hebben, ondanks de bonte en autonome aard van de gevolgtrekkingen.

Geïnspireerd door een andere experimentele filosoof (Mayo 1996), suggereert Parker (2008b) een oplossing voor enkele tekortkomingen in de huidige benaderingen van de evaluatie van simulatiemodellen. In dit werk suggereert Parker dat Mayo's fout-statistische benadering voor het begrijpen van het traditionele experiment - waarbij gebruik wordt gemaakt van het begrip 'zware test' - licht zou kunnen werpen op de epistemologie van simulatie. De centrale vraag van de epistemologie van simulatie vanuit een fout-statistisch perspectief wordt: 'Wat rechtvaardigt dat het nemen van een computersimulatie een zware test is van een hypothese over de natuurlijke wereld? Dat wil zeggen, wat onze conclusie rechtvaardigt dat het onwaarschijnlijk is dat de simulatie de resultaten zou opleveren die het in feite zou opleveren, als de hypothese van interesse onjuist was (2008b,380)? Parker is van mening dat te veel van wat doorgaat voor de evaluatie van simulatiemodellen niet nauwkeurig en gestructureerd is omdat

bestaat uit weinig meer dan zij-aan-zij vergelijkingen van simulatie-output en observatiegegevens, met weinig of geen expliciete argumentatie over wat deze vergelijkingen in ieder geval aangeven over het vermogen van het model om bewijs te leveren voor specifieke wetenschappelijke hypothesen van belang. (2008b, 381)

Ze baseert zich expliciet op Mayo's (1996) werk en stelt dat wat de epistemologie van simulatie zou moeten doen, in plaats daarvan een verslag biedt van de 'canonieke fouten' die kunnen ontstaan, evenals strategieën om hun aanwezigheid te onderzoeken.

4.3 Verificatie en validatie

Beoefenaars van simulatie, met name in technische contexten, bij het testen van wapens en in klimaatwetenschap, hebben de neiging om het EOCS te conceptualiseren in termen van verificatie en validatie. Verificatie zou het proces zijn om te bepalen of de output van de simulatie de echte oplossingen benadert voor de differentiaalvergelijkingen van het oorspronkelijke model. Validatie daarentegen zou het proces zijn om te bepalen of het gekozen model een voldoende goede weergave is van het real-world systeem ten behoeve van de simulatie. De literatuur over verificatie en validatie van ingenieurs en wetenschappers is enorm en begint enige aandacht van filosofen te krijgen.

Verificatie kan worden onderverdeeld in verificatie van oplossingen en codeverificatie. De eerste verifieert dat de uitvoer van het beoogde algoritme de echte oplossingen benadert voor de differentiaalvergelijkingen van het oorspronkelijke model. Deze laatste verifieert of de code, zoals geschreven, het beoogde algoritme uitvoert. Codeverificatie wordt meestal genegeerd door wetenschapsfilosofen; waarschijnlijk omdat het in de informatica meer als een probleem wordt gezien dan in de empirische wetenschap - misschien een vergissing. Een deel van de verificatie van oplossingen bestaat uit het vergelijken van berekende output met analytische oplossingen (zogenaamde "benchmarkoplossingen"). Hoewel deze methode natuurlijk kan helpen om de resultaten van een computersimulatie te verdedigen, is het op zichzelf onvoldoende,aangezien simulaties vaak juist worden gebruikt omdat analytische oplossingen niet beschikbaar zijn voor gebieden met oplossingsruimte die van belang zijn. Er zijn andere indirecte technieken beschikbaar: de belangrijkste is waarschijnlijk om te controleren of en in welk tempo de berekende output naar een stabiele oplossing convergeert naarmate de tijd en ruimtelijke resolutie van het discretisatieraster fijner worden.

De belangrijkste validatiestrategie is het vergelijken van modeloutput met waarneembare gegevens. Nogmaals, natuurlijk is deze strategie in de meeste gevallen beperkt, waar simulaties worden uitgevoerd omdat waarneembare gegevens schaars zijn. Maar complexe strategieën kunnen worden gebruikt, waaronder het vergelijken van de output van subsystemen van een simulatie met relevante experimenten (Parker, 2013; Oberkampf en Roy 2010).

De concepten verificatie en validatie hebben enige kritiek gekregen van filosofen. Oreskes et al. 1994, een zeer veel geciteerd artikel, was vooral kritisch over de terminologie, met het argument dat met name "validiteit" een eigenschap is die alleen van toepassing is op logische argumenten, en dat de term daarom, wanneer toegepast op modellen, zou kunnen leiden tot overmoed.

Winsberg (2010, 2018, p.155) heeft betoogd dat de conceptuele scheiding tussen verificatie en validatie misleidend kan zijn, als wordt aangenomen dat er één reeks methoden is die op zichzelf kunnen aantonen dat we de vergelijkingen hebben opgelost goed, en dat er een andere set methoden is, die op zichzelf kan aantonen dat we de juiste vergelijkingen hebben. Hij voerde ook aan dat het misleidend is om te denken dat de epistemologie van simulatie netjes is onderverdeeld in een empirisch deel (verificatie) en een wiskundig (en informatica) deel (validatie). Maar dit misleidende idee volgt vaak de discussie over verificatie en validatie. We vinden dit zowel in het werk van beoefenaars als filosofen.

Hier is de standaardregel van een beoefenaar, Roy: “Verificatie gaat over wiskunde en behandelt de juistheid van de numerieke oplossing voor een bepaald model. Validatie daarentegen gaat over fysica en gaat in op de geschiktheid van het model bij het reproduceren van experimentele gegevens. Verificatie kan worden gezien als het correct oplossen van de gekozen vergelijkingen, terwijl validatie in de eerste plaats de juiste vergelijkingen kiest”(Roy 2005).

Sommige filosofen hebben dit onderscheid toegepast in argumenten over de filosofische nieuwigheid van simulatie. We hebben deze kwestie voor het eerst aan de orde gesteld in paragraaf 4.1, waar Frigg en Reiss betoogden dat simulatie geen epistemologisch nieuwe kenmerken zou kunnen hebben, aangezien het twee afzonderlijke componenten bevatte: een component die identiek is aan de epistemologie van gewone modellering, en een component die volledig wiskundig is. “We moeten hier twee verschillende noties van betrouwbaarheid onderscheiden en twee verschillende vragen beantwoorden. Ten eerste, zijn de oplossingen die de computer biedt dicht genoeg bij de daadwerkelijke (maar niet beschikbare) oplossingen om nuttig te zijn? … dit is een puur wiskundige vraag en valt binnen de klasse van problemen die we zojuist hebben genoemd. Dus vanuit filosofisch oogpunt is hier niets nieuws en de vraag is inderdaad een kwestie van kraken. Tweede,vertegenwoordigen de computationele modellen die de basis vormen van de simulaties het doelsysteem correct? Dat wil zeggen, zijn de simulatieresultaten extern geldig? Dit is een serieuze vraag, maar een die onafhankelijk is van het eerste probleem, en die zich ook voordoet in verband met modellen waarbij geen gebruik wordt gemaakt van hardnekkige wiskunde en gewone experimenten”(Frigg en Reiss 2009).

Maar verificatie en validatie zijn strikt genomen niet zo zuiver van elkaar te scheiden. Dat komt omdat de meeste validatiemethoden op zichzelf veel te zwak zijn om de validiteit van een simulatie vast te stellen. En de meeste modelvergelijkingen die voor simulatie zijn gekozen, zijn in geen enkele zin "de juiste vergelijkingen"; het zijn niet de modelvergelijkingen die we zouden kiezen in een ideale wereld. We hebben goede redenen om te denken, met andere woorden, dat er modelvergelijkingen zijn die in abstracto een betere empirische ondersteuning genieten. De vergelijkingen die we kiezen, weerspiegelen vaak een compromis tussen wat volgens ons het beste de verschijnselen en rekenbaarheid beschrijft. De gekozen vergelijkingen worden dus zelden alleen goed 'gevalideerd'. Als we willen begrijpen waarom simulatieresultaten geloofwaardig zijn,we moeten kijken naar de epistemologie van simulatie als een geïntegreerd geheel, niet zo zuiver onderverdeeld in verificatie en validatie - die elk op zichzelf onvoldoende zouden zijn voor de taak.

Een punt is dus dat verificatie en validatie geen onafhankelijk succesvolle en scheidbare activiteiten zijn. Maar het andere punt is dat er geen twee onafhankelijke entiteiten zijn waarop deze activiteiten kunnen worden gericht: een gekozen model voor discretisering en een methode om het te discretiseren. Zodra men erkent dat de vergelijkingen die moeten worden "opgelost" soms worden gekozen om discretisatiefouten enz. Op te heffen (Lenhard 2007 heeft een heel mooi voorbeeld hiervan waarbij de Arakawa-operator betrokken is), wordt dit latere onderscheid moeilijker te handhaven. Dus succes wordt behaald in simulatie met een soort heen-en-weer, trial-and-error, stukje bij beetje aanpassing tussen model en berekeningsmethode. En wanneer dit het geval is, is het zelfs moeilijk om te weten wat het betekent om te zeggen dat een simulatie afzonderlijk wordt geverifieerd en gevalideerd.

Niemand heeft beweerd dat V&V geen nuttig onderscheid is, maar eerder dat wetenschappers een pragmatisch nuttig onderscheid niet te veel zouden moeten opblazen tot een schoon methodologisch dictaat dat de rommeligheid van hun eigen praktijk verkeerd voorstelt. Het argument van Frigg en Reiss voor de afwezigheid van epistemologische nieuwigheid in simulatie mislukt om deze reden. Het is niet 'een puur wiskundige vraag' of de oplossingen die de computer biedt dicht genoeg bij de daadwerkelijke (maar niet beschikbare) oplossingen liggen om nuttig te zijn. Althans niet in dit opzicht: het is geen vraag die pragmatisch volledig met wiskundige methoden kan worden beantwoord. En daarom is het een empirisch / epistemologisch probleem dat niet voorkomt bij gewone modellen.

4.4 EOCS en epistemische rechten

Een belangrijk onderdeel van de gewone (buiten de wetenschapsfilosofie) epistemologie is het benadrukken van de mate waarin het een voorwaarde is voor de mogelijkheid van kennis dat we vertrouwen op onze zintuigen en het getuigenis van andere mensen op een manier die we niet zelf kunnen rechtvaardigen. Volgens Tyler Burge (1993, 1998) is geloof in de resultaten van deze twee processen gerechtvaardigd maar niet gerechtvaardigd. Volgens Burge hebben we eerder recht op deze overtuigingen. "[We] hebben het recht om, andere dingen gelijk, te vertrouwen op perceptie, geheugen, deductieve en inductieve redenering, en op … het woord van anderen" (1993, p. 458). Overtuigingen waar een gelovige recht op heeft, zijn overtuigingen die niet worden ondersteund door bewijsmateriaal dat voor de gelovige beschikbaar is, maar dat de gelovige niettemin gerechtvaardigd is om te geloven.

Sommige werkzaamheden in EOCS hebben analogieën ontwikkeld tussen computersimulatie en de soorten kennisproducerende praktijken die Burge associeert met rechten. (Zie vooral Barberousse en Vorms, 2014 en Beisbart, 2017.) Dit is in sommige opzichten een natuurlijke uitvloeisel van de argumenten van Burge dat we computerondersteunde bewijzen op deze manier bekijken (1998). Computersimulaties zijn uiterst complex, vaak het resultaat van de epistemische arbeid van een diverse groep wetenschappers en andere experts, en misschien wel het belangrijkst, epistemisch ondoorzichtig (Humphreys, 2004). Vanwege deze kenmerken stelt Beisbart dat het redelijk is om computersimulaties op dezelfde manier te behandelen als wij onze zintuigen en het getuigenis van anderen behandelen: gewoon als dingen die kunnen worden vertrouwd in de veronderstelling dat alles soepel werkt. (Beisbart, 2017).

Symons en Alvarado (2019) stellen dat er een fundamenteel probleem is met deze benadering van EOCS en dat het te maken heeft met een kenmerk van computerondersteund bewijs dat cruciaal was voor Burge's oorspronkelijke verhaal: dat van een 'transparante transportband'. "Het is bijvoorbeeld erg belangrijk om op te merken dat Burge's verslag van het bewaren van inhoud en transparant overbrengen vereist dat de ontvanger al reden heeft om niet aan de bron te twijfelen" (p. 13). Maar Symons en Alvarado wijzen op veel van de eigenschappen van computersimulaties (gebaseerd op Winsberg 2010 en Ruphy 2015) waardoor ze deze eigenschappen niet hebben. Lenhard en Küster 2019 zijn hier ook relevant,omdat ze beweren dat er veel kenmerken van computersimulatie zijn waardoor ze moeilijk te reproduceren zijn en daardoor een deel van de stabiliteit ondermijnen die nodig zou zijn om transparante transporteurs te zijn. Om deze redenen en andere die te maken hebben met veel van de in 4.2 en 4.3 besproken functies, betogen Symons en Alvarado dat het onwaarschijnlijk is dat we computersimulatie moeten beschouwen als een basale epistemische praktijk die vergelijkbaar is met zintuiglijke waarneming, geheugen, getuigenis of dergelijke.

4.5 Pragmatische benaderingen van EOCS

Een andere benadering van EOCS is om het te baseren op de praktische aspecten van het vak van modellering en simulatie. Met andere woorden, volgens deze opvatting kunnen we het beste verslag geven van de redenen die we hebben om de resultaten van computersimulatiestudies te geloven, vertrouwen te hebben in de praktische vaardigheden en het vakmanschap van de modelleurs die ze gebruiken. Een goed voorbeeld van zo'n account is (Hubig en Kaminski, 2017). Het epistemologische doel van dit soort werk is om de plaats van ons vertrouwen in simulaties te identificeren in praktische aspecten van het vak van modellering en simulatie, in plaats van in de kenmerken van de modellen zelf. (Resch et al, 2017) stellen dat een groot deel van de reden waarom we simulaties moeten vertrouwen, niet komt door de simulaties zelf,maar vanwege het interpretatieve kunstenaarschap van degenen die hun kunst en vaardigheden gebruiken om simulatie-output te interpreteren. Symons en Alvarado (2019) zijn ook kritisch over deze benadering, met als argument dat "Een deel van de taak van de epistemologie van computersimulatie is om het verschil te verklaren tussen de positie van de hedendaagse wetenschapper in relatie tot epistemisch ondoorzichtige computersimulaties.." (p.7) en de gelovigen in de relatie van een mechanisch orakel met hun orakels. Pragmatische en epistemische overwegingen bestaan, volgens Symons en Alvarado, naast elkaar, en ze zijn geen mogelijke concurrenten voor de juiste verklaring van ons vertrouwen in simulaties - de epistemische redenen zijn uiteindelijk wat de pragmatische redenen verklaart en gronden.met het argument dat “Een deel van de taak van de epistemologie van computersimulatie is om het verschil te verklaren tussen de positie van de hedendaagse wetenschapper in relatie tot epistemisch ondoorzichtige computersimulaties..” (p. 7) en de gelovigen in de relatie van een mechanisch orakel met hun orakels. Pragmatische en epistemische overwegingen bestaan, volgens Symons en Alvarado, naast elkaar, en ze zijn geen mogelijke concurrenten voor de juiste verklaring van ons vertrouwen in simulaties - de epistemische redenen zijn uiteindelijk wat de pragmatische redenen verklaart en gronden.met het argument dat “Een deel van de taak van de epistemologie van computersimulatie is om het verschil te verklaren tussen de positie van de hedendaagse wetenschapper in relatie tot epistemisch ondoorzichtige computersimulaties..” (p. 7) en de gelovigen in de relatie van een mechanisch orakel met hun orakels. Pragmatische en epistemische overwegingen bestaan, volgens Symons en Alvarado, naast elkaar, en ze zijn geen mogelijke concurrenten voor de juiste verklaring van ons vertrouwen in simulaties - de epistemische redenen zijn uiteindelijk wat de pragmatische redenen verklaart en gronden.en ze zijn geen mogelijke concurrenten voor de juiste verklaring van ons vertrouwen in simulaties - de epistemische redenen zijn uiteindelijk wat de pragmatische redenen verklaart en gronden.en ze zijn geen mogelijke concurrenten voor de juiste verklaring van ons vertrouwen in simulaties - de epistemische redenen zijn uiteindelijk wat de pragmatische redenen verklaart en gronden.

5. Simulatie en experiment

Werkende wetenschappers beschrijven simulatiestudies soms in experimentele termen. Het verband tussen simulatie en experiment gaat waarschijnlijk terug tot von Neumann, die, toen hij al heel vroeg pleitte voor het gebruik van computers in de natuurkunde, opmerkte dat veel moeilijke experimenten alleen moesten worden uitgevoerd om feiten vast te stellen die in principe zouden moeten zijn om af te leiden uit de theorie. Toen de visie van von Neumann eenmaal werkelijkheid werd en sommige van deze experimenten werden vervangen door simulaties, werd het een beetje natuurlijk om ze als experimentversies te beschouwen. Een representatieve passage is te vinden in een populair boek over simulatie:

Een simulatie die een complex fenomeen nauwkeurig nabootst, bevat een schat aan informatie over dat fenomeen. Variabelen zoals temperatuur, druk, vochtigheid en windsnelheid worden op duizenden punten geëvalueerd door de supercomputer, omdat deze bijvoorbeeld de ontwikkeling van een storm simuleert. Dergelijke gegevens, die veel verder gaan dan alles wat kan worden verkregen door het lanceren van een vloot van weerballonnen, onthullen intieme details van wat er in de onweerswolk gebeurt. (Kaufmann en Smarr 1993, 4)

Het idee van 'in silico'-experimenten wordt nog aannemelijker wanneer een simulatiestudie is ontworpen om te leren wat er met een systeem gebeurt als gevolg van verschillende mogelijke interventies: wat zou er met het wereldklimaat gebeuren als x hoeveelheid koolstof aan de atmosfeer zou worden toegevoegd ? Wat gebeurt er met deze vliegtuigvleugel als deze wordt blootgesteld aan deze en die spanning? Hoe zouden verkeerspatronen veranderen als er een onramp wordt toegevoegd op deze locatie?

Filosofen zijn daarom begonnen na te denken in welke zin computersimulaties, als die er zijn, als experimenten zijn en in welke zin ze verschillen. Een aanverwant probleem is de vraag wanneer een proces dat in wezen computersimulatie inhoudt, kan meetellen als meting (Parker, 2017). Er zijn een aantal opvattingen naar voren gekomen in de literatuur over het verdedigen en bekritiseren van twee stellingen:

De identiteitsthesis. Computersimulatiestudies zijn letterlijk voorbeelden van experimenten.

De epistemologische afhankelijkheidsthesis. De identiteitsthesis zou (als het waar was) een goede reden zijn (zwakke versie), of de beste reden (sterkere versie), of de enige reden (sterkste versie; het is een noodzakelijke voorwaarde) om te geloven dat simulaties warrants kunnen bieden voor geloof in de hypothesen die ze ondersteunen. Een gevolg van de sterkste versie is dat er alleen als de identiteitsthesis waar is, reden is om aan te nemen dat simulaties aanleiding kunnen geven tot het geloven in hypothesen.

Het centrale idee achter de epistemologische afhankelijkheidsthesis is dat experimenten de canonieke entiteiten zijn die een centrale rol spelen bij het rechtvaardigen van ons geloof in wetenschappelijke hypothesen, en dat daarom de mate waarin we zouden moeten denken dat simulaties ook een rol kunnen spelen bij het rechtvaardigen van dergelijke overtuigingen hangt af van de mate waarin ze kunnen worden geïdentificeerd als een soort experiment.

Al in Humphreys 1995 en Hughes 1999 pleiten filosofen die pleiten voor de identiteitsthesis. En er is in ieder geval impliciete steun voor (de sterkere) versie van de epistemologische afhankelijkheidsthesis in Hughes. Het vroegste expliciete argument voor de epistemologische afhankelijkheidsthese is echter in Norton en Suppe 2001. Volgens Norton en Suppe kunnen simulaties geloof rechtvaardigen, juist omdat het letterlijk experimenten zijn. Ze hebben een gedetailleerd verhaal om te vertellen in welke zin het experimenten zijn en hoe dit allemaal zou moeten werken. Volgens Norton en Suppe is een geldige simulatie er een waarin bepaalde formele relaties (wat ze 'realisatie' noemen) bestaan tussen een basismodel, het gemodelleerde fysieke systeem zelf en de computer waarop het algoritme draait. Als aan de juiste voorwaarden is voldaan,'een simulatie kan worden gebruikt als een instrument om fenomenen uit de echte wereld te onderzoeken of te detecteren. Empirische gegevens over echte verschijnselen worden geproduceerd onder omstandigheden van experimentele controle '(p. 73).

Een probleem met dit verhaal is dat de formele voorwaarden die ze stellen veel te streng zijn. Het is onwaarschijnlijk dat er heel veel echte voorbeelden zijn van computersimulaties die aan hun strikte normen voldoen. Simulatie is bijna altijd een veel meer idealiserende en benaderende onderneming. Dus als simulaties experimenten zijn, is het waarschijnlijk niet zoals Norton en Suppe zich hadden voorgesteld.

Meer in het algemeen heeft de identiteitsthesis vuur uit andere hoeken getrokken.

Gilbert en Troitzsch voerden aan dat "[t] het grote verschil is dat men tijdens een experiment het feitelijke object bestuurt (bijvoorbeeld in een chemie-experiment, de onderzochte chemicaliën), in een simulatie experimenteert men met een model in plaats van het fenomeen zelf. ' (Gilbert en Troitzsch 1999, 13). Maar dit klopt niet. Velen (Guala 2002, 2008, Morgan 2003, Parker 2009a, Winsberg 2009a) hebben gewezen op problemen met de claim. Als Gilbert en Troitzsch bedoelen dat simulatoren modellen manipuleren in de zin van abstracte objecten, dan is de bewering moeilijk te begrijpen - hoe manipuleren we een abstracte entiteit? Als ze daarentegen simpelweg willen wijzen op het feit dat het fysieke object dat simulationisten manipuleren - een digitale computer - niet het werkelijke object van interesse is,dan is niet duidelijk waarom dit afwijkt van gewone experimenten.

Het is onjuist dat echte experimenten altijd precies hun doelwitten manipuleren. In feite is er in zowel echte experimenten als simulaties een complexe relatie tussen wat in het onderzoek wordt gemanipuleerd enerzijds, en de real-world systemen die het doelwit zijn van het onderzoek anderzijds. In zowel experimenten als simulaties is er dus een argument van een bepaalde substantie nodig om de 'externe validiteit' van het onderzoek vast te stellen - om vast te stellen dat wat wordt geleerd over het systeem dat wordt gemanipuleerd, van toepassing is op het systeem van belang. Mendel manipuleerde bijvoorbeeld erwtenplanten, maar hij was geïnteresseerd in het algemeen over het fenomeen erfelijkheid. Het idee van een modelorganisme in de biologie maakt dit idee opvallend. We experimenteren met Caenorhabditis elegans omdat we geïnteresseerd zijn in het begrijpen hoe organisme in het algemeen genen gebruikt om ontwikkeling en genealogie te beheersen. We experimenteren met Drosophila melanogaster, omdat het een bruikbaar model biedt van mutaties en genetische overerving. Maar het idee is niet beperkt tot biologie. Galileo experimenteerde met hellende vlakken omdat hij geïnteresseerd was in hoe objecten vallen en hoe ze zich zouden gedragen bij afwezigheid van interfererende krachten-verschijnselen die de experimenten met hellende vlakken niet eens concreet maakten. Galileo experimenteerde met hellende vlakken omdat hij geïnteresseerd was in hoe objecten vallen en hoe ze zich zouden gedragen bij afwezigheid van interfererende krachten-verschijnselen die de experimenten met hellende vlakken niet eens concreet maakten. Galileo experimenteerde met hellende vlakken omdat hij geïnteresseerd was in hoe objecten vallen en hoe ze zich zouden gedragen bij afwezigheid van interfererende krachten-verschijnselen die de experimenten met hellende vlakken niet eens concreet maakten.

Deze mening over experimenten is natuurlijk niet onomstreden. Het is waar dat experimentalisten vaak iets afleiden over een systeem dat verschilt van het systeem waarmee ze interfereren. Het is echter niet duidelijk of deze conclusie juist onderdeel is van het oorspronkelijke experiment. Peschard (2010) plaatst kritiek op deze lijnen en kan daarom worden gezien als een verdediger van Gilbert en Troitzsch. Peschard stelt dat de fundamentele veronderstelling van hun critici - dat bij experimenten, net als bij simulatie, wat wordt gemanipuleerd een systeem is dat in de plaats komt van een doelsysteem - in de war is. Het verwarring, stelt Peschard, het epistemische doelwit van een experiment met zijn epistemische motivatie. Ze betoogt dat, hoewel de epistemische motivatie om experimenten op C. elegans uit te voeren, behoorlijk verreikend kan zijn,het juiste epistemische doelwit voor een dergelijk experiment is de worm zelf. In een simulatie is het epistemische doelwit volgens Peschard echter nooit de digitale computer zelf. Simulatie is dus volgens haar anders dan experiment, omdat het epistemische doelwit (in tegenstelling tot alleen de epistemische motivatie) verschilt van het object dat wordt gemanipuleerd. Roush (2017) kan ook worden gezien als een verdediger van de Gilbert- en Troitzsch-lijn, maar Roush doet een beroep op de gelijkheid van natuurlijke soorten als het cruciale kenmerk dat experimenten en simulaties scheidt. Andere tegenstanders van de identiteitsthesis zijn Giere (2009) en Beisbart en Norton (2012, Other Internet Resources).doordat het epistemische doelwit (in tegenstelling tot alleen de epistemische motivatie) verschilt van het object dat wordt gemanipuleerd. Roush (2017) kan ook worden gezien als een verdediger van de Gilbert- en Troitzsch-lijn, maar Roush doet een beroep op de gelijkheid van natuurlijke soorten als het cruciale kenmerk dat experimenten en simulaties scheidt. Andere tegenstanders van de identiteitsthesis zijn Giere (2009) en Beisbart en Norton (2012, Other Internet Resources).doordat het epistemische doelwit (in tegenstelling tot alleen de epistemische motivatie) verschilt van het object dat wordt gemanipuleerd. Roush (2017) kan ook worden gezien als een verdediger van de Gilbert- en Troitzsch-lijn, maar Roush doet een beroep op de gelijkheid van natuurlijke soorten als het cruciale kenmerk dat experimenten en simulaties scheidt. Andere tegenstanders van de identiteitsthesis zijn Giere (2009) en Beisbart en Norton (2012, Other Internet Resources). Andere internetbronnen). Andere internetbronnen).

Het is niet duidelijk hoe dit geschil moet worden beslecht en het lijkt in de eerste plaats te gaan om een accentverschil. Men kan het verschil tussen experiment en simulatie benadrukken, volgens Gilbert en Troitzsch en Peschard, door erop te staan dat experimenten ons eerst leren over hun epistemische doelen en pas in tweede instantie gevolgtrekkingen toestaan aan het gedrag van andere systemen. (Dat wil zeggen, experimenten met wormen leren ons in eerste instantie over wormen, en laten ons in de tweede plaats in het algemeen gevolgtrekkingen maken over genetische controle.) Dit zou hen conceptueel anders maken dan computersimulaties, waarvan niet wordt gedacht dat ze ons leren, in eerste instantie over het gedrag van computers, en in tweede instantie over stormen, sterrenstelsels of wat dan ook.

Of je kunt de gelijkenis op de tegenovergestelde manier benadrukken. Men kan benadrukken in welke mate experimentele doelen altijd worden gekozen als surrogaten voor wat echt interessant is. Morrison, 2009 is waarschijnlijk de meest krachtige verdediger van het benadrukken van dit aspect van de gelijkenis van experiment en simulatie. Ze stelt dat de meeste experimentele praktijken, en zelfs de meeste meetpraktijken, dezelfde soorten modelleringspraktijken omvatten als simulaties. In ieder geval, tempo Peschard, niets anders dan een debat over de nomenclatuur - en misschien een beroep op het gewone taalgebruik van wetenschappers; niet altijd het meest overtuigende argument - zou ons ervan weerhouden te zeggen dat het epistemische doel van een stormsimulatie de computer is, en dat de storm slechts de epistemische motivatie is om de computer te bestuderen.

Hoe het ook zij, veel filosofen van simulatie, waaronder die die in deze paragraaf worden besproken, hebben voor het laatste pad gekozen, deels om de aandacht te vestigen op manieren waarop de boodschap die achter Gilbert en Troitzsch's geciteerde claim schuilt, een al te simplistisch beeld schetst van experiment. Het lijkt overdreven simplistisch om een beeld te schetsen volgens welk experiment een directe grip op de wereld krijgt, terwijl de situatie van simulatie precies het tegenovergestelde is. En dit is het beeld dat men lijkt te krijgen uit het citaat van Gilber en Troitzsch. Het meer verfijnde beeld van Peschard, waarbij een onderscheid wordt gemaakt tussen epistemische doelen en epistemische motivaties, helpt om die zorgen glad te strijken zonder ons op het terrein te brengen dat we denken dat simulatie en experiment in dit opzicht precies hetzelfde zijn.

Ondanks de afwijzing van Gilbert en Troitzschs karakterisering van het verschil tussen simulatie en experiment, verwerpen Guala en Morgan beide de identiteitsthesis. Op basis van het werk van Simon (1969) stelt Guala dat simulaties fundamenteel verschillen van experimenten doordat het object van manipulatie in een experiment een materiële gelijkenis vertoont met het doelwit van belang, maar in een simulatie is de overeenkomst tussen object en doel slechts formeel. Interessant is dat, hoewel Morgan dit argument tegen de identiteitsthesis accepteert, ze vasthoudt aan een versie van de epistemologische afhankelijkheidsthesis. Ze stelt met andere woorden:dat het verschil tussen experimenten en simulaties geïdentificeerd door Guala impliceert dat simulaties epistemologisch inferieur zijn aan echte experimenten - dat ze intrinsiek minder macht hebben om geloof in hypothesen over de echte wereld te rechtvaardigen omdat het geen experimenten zijn.

Een verdediging van de epistemische kracht van simulaties tegen Morgan's (2002) argument zou kunnen komen in de vorm van een verdediging van de identiteitsthesis, of in de vorm van een afwijzing van de epistemologische afhankelijkheidsthesis. Op het eerste front lijken er twee problemen te zijn met Guala's (2002) argument tegen de identiteitsthesis. De eerste is dat de notie van materiële gelijkenis hier te zwak is, en de tweede is dat de notie van louter formele gelijkenis te vaag is om het vereiste werk te doen. Neem bijvoorbeeld het feit dat het in de ingenieurswetenschappen niet ongebruikelijk is om simulatiemethoden te gebruiken om het gedrag van systemen die uit silicium zijn vervaardigd te bestuderen. De ingenieur wil leren over de eigenschappen van verschillende ontwerpmogelijkheden voor een siliciumapparaat,dus ontwikkelt ze een computationeel model van het apparaat en voert een simulatie uit van het gedrag ervan op een digitale computer. Er zijn diepe materiële overeenkomsten tussen, en sommige van dezelfde materiële oorzaken zijn aan het werk in de centrale processor van de computer en het siliciumapparaat dat wordt bestudeerd. Volgens Guala's redenering zou dit dit moeten markeren als een voorbeeld van een echt experiment, maar dat lijkt onjuist. De eigenaardigheden van dit voorbeeld illustreren het probleem tamelijk grimmig, maar het probleem is in feite vrij algemeen: elke twee systemen vertonen materiële overeenkomsten met elkaar en enkele verschillen.dit zou dit moeten markeren als een voorbeeld van een echt experiment, maar dat lijkt niet te kloppen. De eigenaardigheden van dit voorbeeld illustreren het probleem tamelijk grimmig, maar het probleem is in feite vrij algemeen: elke twee systemen vertonen materiële overeenkomsten met elkaar en enkele verschillen.dit zou dit moeten markeren als een voorbeeld van een echt experiment, maar dat lijkt niet te kloppen. De eigenaardigheden van dit voorbeeld illustreren het probleem tamelijk grimmig, maar het probleem is in feite vrij algemeen: elke twee systemen vertonen materiële overeenkomsten met elkaar en enkele verschillen.

Parke (2014) pleit tegen de epistemologische afhankelijkheidsthesis door twee premissen te ondermijnen waarvan ze denkt dat ze die ondersteunen: vuist, dat experimenten meer inferentiële kracht genereren dan simulaties, en ten tweede dat simulaties ons niet kunnen verrassen zoals experimenten dat kunnen.

Aan de andere kant is het idee dat het bestaan van een formele overeenkomst tussen twee materiële entiteiten iets interessants kan markeren, conceptueel verward. Gezien elke twee voldoende complexe entiteiten, zijn er vele manieren waarop ze formeel identiek zijn, om nog maar te zwijgen van vergelijkbaar. Er zijn ook manieren waarop ze formeel compleet anders zijn. Nu kunnen we losjes spreken en zeggen dat twee dingen een formele overeenkomst vertonen, maar wat we echt bedoelen is dat onze beste formele representaties van de twee entiteiten formele overeenkomsten hebben. In ieder geval lijken er goede redenen te zijn om zowel de Gilbert- en Troitzsch- als de Morgan- en Guala-gronden af te wijzen voor het onderscheiden van experimenten en simulaties.

Terugkomend op de verdediging van de epistemische kracht van simulaties, zijn er ook redenen om de epistemologische afhankelijkheidsthesis te verwerpen. Zoals Parker (2009a) opmerkt, kunnen we in zowel experiment als simulatie relevante overeenkomsten hebben tussen computersimulaties en doelsystemen, en dat is waar het om gaat. Wanneer de relevante achtergrondkennis aanwezig is, kan een simulatie meer betrouwbare kennis van een systeem opleveren dan een experiment. Een computersimulatie van het zonnestelsel, gebaseerd op onze meest geavanceerde modellen van hemelse dynamiek, zal betere representaties van de banen van de planeten opleveren dan welk experiment dan ook.

Parke (2014) pleit tegen de epistemologische afhankelijkheidsthesis door twee premissen te ondermijnen waarvan ze denkt dat ze die ondersteunen: vuist, dat experimenten meer inferentiële kracht genereren dan simulaties, en ten tweede dat simulaties ons niet kunnen verrassen zoals experimenten dat kunnen. Het argument dat simulaties ons niet kunnen verrassen, komt van Morgan (2005). Pace Morgan, Parke stelt dat simulatoren vaak verrast zijn door hun simulaties, zowel omdat ze niet alwetend zijn op het gebied van computers, als omdat ze niet altijd de enige makers zijn van de modellen en code die ze gebruiken. Ze stelt bovendien dat '[d] ifferences in de epistemische staten van de onderzoeker alleen de verkeerde gronden lijken om een onderscheid tussen experiment en simulatie op te sporen' (258). Adrian Curry (2017) verdedigt de oorspronkelijke intuïtie van Morgan door twee vriendelijke wijzigingen aan te brengen. Hij betoogt dat het onderscheid waar Morgan echt naar op zoek was, tussen twee verschillende soorten verrassingen was, en met name wat de bron van verrassing is: verrassing door het uitbrengen van theoretische kennis in contact met de wereld, onderscheidt zich door experimenten. Hij definieert verrassing ook nauwkeuriger op een niet-psychologische manier, zodat het een “kwaliteit is waarvan het bereiken echte epistemische vooruitgang vormt” (p. 640).

6. Computersimulatie en de structuur van wetenschappelijke theorieën

Paul Humphreys (2004) heeft betoogd dat computersimulaties diepgaande implicaties hebben voor ons begrip van de structuur van theorieën; hij stelt dat ze tekortkomingen vertonen met zowel de semantische als syntactische opvattingen van wetenschappelijke theorieën. Deze claim heeft scherp vuur getrokken van Roman Frigg en Julian Reiss (2009). Frigg en Reiss stellen dat of een model al dan niet een analytische oplossing toelaat, niet van invloed is op hoe het zich verhoudt tot de wereld. Ze gebruiken hiervoor het voorbeeld van de dubbele slinger. Of het binnenste steunpunt van de slinger vast blijft zitten (een feit dat zal bepalen of het relevante model analytisch oplosbaar is) heeft geen invloed op de semantiek van de elementen van het model. Hieruit concluderen ze dat de semantiek van een model, of hoe het zich verhoudt tot de wereld, niet wordt beïnvloed door het feit of het model al dan niet analytisch oplosbaar is.

Dit reageerde echter niet op de meest liefdadige lezing van waar Humphreys naar wees. De syntactische en semantische opvattingen van theorieën waren tenslotte niet alleen verslagen van hoe onze abstracte wetenschappelijke representaties zich verhouden tot de wereld. Meer in het bijzonder waren het geen verhalen over de relatie tussen bepaalde modellen en de wereld, maar eerder over de relatie tussen theorieën en de wereld, en de eventuele rol die modellen in die relatie speelden.

Het waren ook verhalen die veel te zeggen hadden over waar de filosofisch interessante actie is als het gaat om wetenschappelijke theorievorming. De syntactische opvatting suggereerde dat de wetenschappelijke praktijk adequaat rationeel kon worden gereconstrueerd door theorieën als axiomatische systemen te beschouwen, en, nog belangrijker, dat logische deductie een nuttig regulerend ideaal was om na te denken over hoe gevolgtrekkingen van theorie naar de wereld worden getrokken. De syntactische opvatting maakte ook, door weglating, vrij duidelijk dat modellering in ieder geval slechts een heuristische rol in de wetenschap speelde. (Dit was een kenmerk van de syntactische kijk op theorieën waar Frederick Suppe, een van de meest fervente critici, vaak tegen opriep.) Theorieën zelf hadden niets met modellen te maken, en theorieën konden rechtstreeks met de wereld worden vergeleken, zonder enige belangrijke rol om te spelen als model.

De semantische kijk op theorieën benadrukte daarentegen wel een belangrijke rol voor modellen, maar drong er ook op aan dat theorieën niet-linguïstische entiteiten waren. Het drong er bij filosofen op aan om niet afgeleid te worden door de contingenties van de specifieke vorm van taaluitdrukking die een theorie zou kunnen vinden in bijvoorbeeld een bepaald leerboek.

Computersimulaties lijken echter te illustreren dat beide thema's niet juist waren. Het was volkomen verkeerd te denken dat logische afleiding het juiste instrument was om het proces van theoretische toepassing rationeel te reconstrueren. Computersimulaties laten zien dat er methoden zijn voor theoretische toepassing die de inferentiële kracht van logische deductie enorm overtreffen. De ruimte van oplossingen die bijvoorbeeld beschikbaar is via logische afleiding uit de theorie van vloeistoffen is microscopisch vergeleken met de ruimte van applicaties die via computersimulatie kunnen worden verkend. Aan de andere kant lijken computersimulaties te onthullen dat, zoals Humphreys (2004) heeft aangedrongen, syntaxis van belang is. Het bleek onjuist te zijn, zoals de semantische opvatting deed, dat de specifieke taalvorm waarin een wetenschappelijke theorie wordt uitgedrukt, filosofisch oninteressant is. De syntaxis van de uitdrukking van de theorie zal een diep effect hebben op de gevolgtrekkingen die eruit kunnen worden getrokken, welke soorten idealisaties er goed mee zullen werken, enz. Humphreys zei het volgende: “de specifieke syntactische representatie die wordt gebruikt, is vaak cruciaal voor de oplosbaarheid van de vergelijkingen van de theorie”(Humphreys 2009, p.620). De theorie van vloeistoffen kan worden gebruikt om dit punt te benadrukken: of we die theorie nu in Euleriaanse of Lagrange-vorm uitdrukken, zal van grote invloed zijn op wat we in de praktijk kunnen berekenen en hoe; het zal van invloed zijn op welke idealisaties, benaderingen en berekeningstechnieken onder welke omstandigheden effectief en betrouwbaar zullen zijn. De epistemologie van computersimulatie moet dus gevoelig zijn voor de specifieke syntactische formulering van een theorie en hoe goed die specifieke formulering is erkend. Vandaar,Het lijkt juist om te benadrukken, zoals Humphreys (2004) deed, dat computersimulaties tekortkomingen aan het licht hebben gebracht met zowel de syntactische als de semantische theorieën.

7. Opkomst

Paul Humphreys (2004) en Mark Bedau (1997, 2011) hebben betoogd dat filosofen die geïnteresseerd zijn in het onderwerp opkomst veel kunnen leren door naar computersimulatie te kijken. Filosofen die in dit onderwerp geïnteresseerd zijn, zouden de vermelding over opkomende eigenschappen moeten raadplegen, waar de bijdragen van al deze filosofen zijn besproken.

Het verband tussen ontstaan en simulatie werd misschien het best verwoord door Bedau in zijn (2011). Bedau betoogde dat elke opkomst van opkomst moet voldoen aan de dubbele kenmerken van uitleggen hoe het geheel afhangt van zijn delen en hoe het geheel onafhankelijk is van zijn delen. Hij stelt dat filosofen vaak focussen op wat hij 'sterke' opkomst noemt, wat een brute neerwaartse oorzaak veroorzaakt die in principe onherleidbaar is. Maar hij stelt dat dit een vergissing is. Hij richt zich in plaats daarvan op wat hij 'zwakke' opkomst noemt, waardoor de gehelen in principe kunnen worden teruggebracht tot delen, maar in de praktijk niet. Systemen die nieuwe eigenschappen produceren, zijn slechts mechanismen, maar de mechanismen zijn zeer complex (ze hebben heel veel onafhankelijk op elkaar inwerkende onderdelen). Als gevolg,er is geen manier om erachter te komen wat er precies zal gebeuren, gegeven een specifieke set van begin- en randvoorwaarden, behalve om "het causale web te doorzoeken". Hier ontstaat de verbinding met computersimulatie. Zwakke opkomende eigenschappen zijn kenmerkend voor complexe systemen in de natuur. En het is ook kenmerkend voor complexe computersimulaties dat er geen manier is om te voorspellen wat ze zullen doen, behalve om ze te laten draaien. Zwakke opkomst verklaart volgens Bedau waarom computersimulaties een centrale rol spelen in de wetenschap van complexe systemen. De beste manier om te begrijpen en te voorspellen hoe echte complexe systemen zich gedragen, is door ze te simuleren door het micro-causale web te doorzoeken en te kijken wat er gebeurt. Zwakke opkomende eigenschappen zijn kenmerkend voor complexe systemen in de natuur. En het is ook kenmerkend voor complexe computersimulaties dat er geen manier is om te voorspellen wat ze zullen doen, behalve om ze te laten draaien. Zwakke opkomst verklaart volgens Bedau waarom computersimulaties een centrale rol spelen in de wetenschap van complexe systemen. De beste manier om te begrijpen en te voorspellen hoe echte complexe systemen zich gedragen, is door ze te simuleren door het micro-causale web te doorzoeken en te kijken wat er gebeurt. Zwakke opkomende eigenschappen zijn kenmerkend voor complexe systemen in de natuur. En het is ook kenmerkend voor complexe computersimulaties dat er geen manier is om te voorspellen wat ze zullen doen, behalve om ze te laten draaien. Zwakke opkomst verklaart volgens Bedau waarom computersimulaties een centrale rol spelen in de wetenschap van complexe systemen. De beste manier om te begrijpen en te voorspellen hoe echte complexe systemen zich gedragen, is door ze te simuleren door het micro-causale web te doorzoeken en te kijken wat er gebeurt. De beste manier om te begrijpen en te voorspellen hoe echte complexe systemen zich gedragen, is door ze te simuleren door het micro-causale web te doorzoeken en te kijken wat er gebeurt. De beste manier om te begrijpen en te voorspellen hoe echte complexe systemen zich gedragen, is door ze te simuleren door het micro-causale web te doorzoeken en te kijken wat er gebeurt.

8. Ficties

Bij modellen gaat het natuurlijk om idealisaties. Maar er is wel beweerd dat sommige vormen van idealisatie, die een bijzonder prominente rol spelen in het soort modellering dat betrokken is bij computersimulatie, speciaal zijn, tot het punt dat ze de titel "fictie" verdienen. Deze sectie bespreekt pogingen om ficties te definiëren en hun rol in computersimulatie te onderzoeken.

Er zijn twee verschillende denkwijzen over de rol van ficties in de wetenschap. Volgens één model zijn alle modellen fictie. Deze manier van denken wordt gemotiveerd door bijvoorbeeld de rol van 'de ideale slinger' in de wetenschap te beschouwen. Wetenschappers beweren dat ze vaak beweringen doen over dit soort entiteiten (bijv. "De ideale slinger heeft een periode die evenredig is met de vierkantswortel van zijn lengte"), maar ze zijn nergens te vinden in de echte wereld; daarom moeten het fictieve entiteiten zijn. Deze redenering over fictieve entiteiten in de wetenschap sluit op geen enkele speciale manier aan bij computersimulatie-lezers die geïnteresseerd zijn in dit onderwerp, zouden de vermelding over wetenschappelijke representatie [binnenkort] moeten raadplegen.

Een andere manier van denken over ficties houdt zich bezig met de vraag welke soorten representaties in de wetenschap als fictief moeten worden beschouwd. Hier gaat het niet zozeer om de ontologie van wetenschappelijke modelentiteiten, maar om het representatieve karakter van verschillende gepostuleerde modelentiteiten. Hier heeft Winsberg (2009c) betoogd dat ficties een speciale connectie hebben met computersimulaties. Of beter gezegd, dat sommige computersimulaties elementen bevatten die het beste typeren wat we fictieve representaties in de wetenschap zouden kunnen noemen, zelfs als die representaties niet uniek aanwezig zijn in simulaties.

Hij merkt op dat de eerste opvatting van een hierboven genoemde fictie - die "elke representatie die de realiteit tegenspreekt een fictie maakt" (p. 179), niet overeenkomt met ons gewone gebruik van de term: een ruwe kaart is geen fictie. Vervolgens stelt hij een alternatieve definitie voor: non-fictie wordt aangeboden als een “goed genoeg” gids voor een deel van de wereld (p. 181); fictie is dat niet. Maar de definitie moet worden verfijnd. Neem de fabel van de sprinkhaan en de mier. Hoewel de fabel lessen biedt over hoe de wereld is, is het nog steeds fictie omdat het "een nuttige gids is voor de manier waarop de wereld in algemene zin is" in plaats van een specifieke gids voor de manier waarop een deel van de wereld is, zijn " prima facie representational target”, een zingende sprinkhaan en zwoegende mier. Non-ficties daarentegen'Wijs naar een bepaald deel van de wereld' en zijn een gids voor dat deel van de wereld (p. 181).

Dit soort fictieve componenten van modellen worden paradigmatisch geïllustreerd in bepaalde computersimulaties. Twee van zijn voorbeelden zijn het 'silogeenatoom' en 'kunstmatige viscositeit'. Silogeenatomen komen voor in bepaalde nanomechanische modellen van scheuren in silicium-een soort van het soort multischaalmodellen die de kwantummechanica en moleculaire mechanica combineren die genoemd worden in paragraaf 2.3. De silogeen bevattende modellen van scheurvoortplanting in silicium werken door de scheur zelf te beschrijven met behulp van kwantummechanica en het gebied dat de scheur onmiddellijk omringt met behulp van klassieke moleculaire dynamica. Om de modelleerkaders in de twee regio's samen te brengen, wordt de grens behandeld alsof hij 'silogene' atomen bevat, die een mengsel hebben van de eigenschappen van silicium en die van waterstof. Silogeenatomen zijn ficties. Ze worden niet aangeboden als zelfs maar een 'goed genoeg' beschrijving van de atomen aan de grens - hun prima facie representatieve doelen. Maar ze worden gebruikt om te hopen dat het algehele model de zaken goed doet. Het algehele model is dus geen fictie, maar een van de componenten ervan. Kunstmatige viscositeit is een soortgelijk voorbeeld. Vloeistoffen met abrupte schokken zijn moeilijk te modelleren op een computationeel raster omdat de abrupte schok zich verbergt in een enkele rastercel en niet kan worden opgelost door een dergelijk algoritme. Kunstmatige viscositeit is een techniek die doet alsof de vloeistof zeer viskeus is - een fictief recht waar de schok is, zodat de schok minder abrupt wordt en over verschillende rastercellen vervaagt. Door de viscositeit, en dus de dikte van de schok, verkeerd te krijgen, kan het algehele model 'goed genoeg' werken. Opnieuw,het algehele model van de vloeistof is geen fictie, het is een betrouwbare gids voor het gedrag van de vloeistof. Maar het onderdeel dat kunstmatige viscositeit wordt genoemd, is een fictie: het wordt niet gebruikt om de schok betrouwbaar te modelleren. Het wordt opgenomen in een groter modelleerraamwerk om dat grotere raamwerk 'betrouwbaar genoeg' te maken.

Dit verslag heeft twee soorten kritiek opgeleverd. Toon (2010) heeft betoogd dat deze definitie van een fictie te smal is. Hij geeft voorbeelden van historische ficties zoals I, Claudius en Schindler's Ark, die volgens hem ficties zijn, ondanks het feit dat "ze in bepaalde opzichten als 'goed genoeg' gidsen worden aangeboden aan die mensen, plaatsen en evenementen en we recht hebben op neem ze als zodanig. ' (p. 286–7). Toon ondersteunt vermoedelijk een bredere opvatting over de rol van ficties in de wetenschap, volgens hetwelk ze geen bijzonder prominente of verhoogde rol spelen in computersimulatie.

Gordon Purves (nog te verschijnen) stelt dat er voorbeelden zijn van ficties in computationele modellen (zijn voorbeeld zijn zogenaamde "imaginaire scheuren") en elders, die niet voldoen aan de hierboven besproken strikte eisen. In tegenstelling tot Toon wil hij echter ook fictieve modelleerelementen afbakenen van de niet-fictieve. Zijn belangrijkste kritiek is op het criterium van fictie in termen van sociale gebruiksnormen - en Purves stelt dat we moeten kunnen vaststellen of een stuk modelleerwerk al dan niet een fictie is bij het ontbreken van dergelijke normen. Zo wil hij een intrinsieke karakterisering van een wetenschappelijke fictie vinden. Zijn voorstel beschouwt modelficties als constituerend dat ze niet het kenmerk hebben dat Laymon (1985) 'stukgewijze verbetering' (PI) noemde. PI is een kenmerk van veel modellen die idealisaties zijn;er staat dat naarmate u de-idealiseert, uw model steeds nauwkeuriger wordt. Maar als je een silogeenatoom de-idealiseert, krijg je geen steeds nauwkeurigere simulatie van een siliciumscheur. Maar Purves beschouwt dit falen van PI als een fictie, in plaats van er alleen symptomatisch voor te zijn.

Bibliografie

  • Barberousse, A., en P. Ludwig, 2009. "Modellen als fictie", in Fictions in Science. Filosofische essays in modellering en idealisaties, Londen: Routledge, 56–73.
  • Barberousse, A., en Vorms, M. 2014. "Over de warrants van computergestuurde empirische kennis", Synthese, 191 (15): 3595–3620.
  • Bedau, MA, 2011. 'Zwakke opkomst en computersimulatie', in P. Humphreys en C. Imbert (red.), Modellen, simulaties en representaties, New York: Routledge, 91–114.
  • –––, 1997. 'Zwakke opkomst', Noûs (supplement 11), 31: 375–399.
  • Beisbart, C. en J. Norton, 2012. "Waarom Monte Carlo-simulaties gevolgtrekkingen zijn en geen experimenten", in International Studies in Philosophy of Science, 26: 403–422.
  • Beisbart, C., 2017. “Kennis door computersimulaties vergroten? Een socratische oefening ', in M. Resch, A. Kaminski, & P. Gehring (red.), The Science and Art of Simulation (Deel I), Cham: Springer, pp. 153–174./
  • Burge, T., 1993. "Inhoudsbehoud", The Philosophical Review, 102 (4): 457–488.
  • –––, 1998. "Computerbewijs, apriori-kennis en andere geesten: de zesde lezing over filosofische perspectieven", Noûs,, 32 (S12): 1–37.
  • Currie, Adrian, 2018. 'The argument from surprise', Canadian Journal of Philosophy, 48 (5): 639–661
  • Dardashti, R., Thebault, K., en Winsberg, E., 2015. "Bevestiging via analoge simulatie: welke domme gaten zouden ons kunnen vertellen over de zwaartekracht", in British Journal for the Philosophy of Science, 68 (1): 55– 89
  • Dardashti, R., Hartmann, S., Thebault, K., en Winsberg, E., 2019. "Hawking-straling en analoge experimenten: een Bayesiaanse analyse", in Studies in History and Philosophy of Modern Physics, 67: 1–11.
  • Epstein, J., en R. Axtell, 1996. Groeiende kunstmatige samenlevingen: sociale wetenschappen van onderop, Cambridge, MA: MIT Press.
  • Epstein, J., 1999. "Agentgebaseerde computationele modellen en generatieve sociale wetenschappen", Complexity, 4 (5): 41–57.
  • Franklin, A., 1996. The Neglect of Experiment, Cambridge: Cambridge University Press.
  • –––, 1989. "The Epistemology of Experiment", The Uses of Experiment, D. Gooding, T. Pinch en S. Schaffer (red.), Cambridge: Cambridge University Press, 437-60.
  • Frigg, R. en J. Reiss, 2009. "De filosofie van simulatie: hete nieuwe problemen of dezelfde oude stoofpot", Synthese, 169: 593–613.
  • Giere, RN, 2009. 'Verandert computersimulatie het gezicht van experimenten?', Philosophical Studies, 143: 59–62
  • Gilbert, N., en K. Troitzsch, 1999. Simulatie voor de sociale wetenschapper, Philadelphia, PA: Open University Press.
  • Grüne-Yanoff, T., 2007. 'Bounded Rationality', Philosophy Compass, 2 (3): 534–563.
  • Grüne-Yanoff, T. en Weirich, P., 2010. 'Philosophy of Simulation', Simulation and Gaming: An Interdisciplinary Journal, 41 (1): 1-31.
  • Guala, F., 2002. 'Modellen, simulaties en experimenten', modelmatig redeneren: wetenschap, technologie, waarden, L. Magnani en N. Nersessian (red.), New York: Kluwer, 59-74.
  • –––, 2008. "Paradigmatische experimenten: het ultimatumspel van testen tot meetinstrument", Wetenschapsfilosofie, 75: 658–669.
  • Hacking, I., 1983. Vertegenwoordigen en tussenkomen: inleidende onderwerpen in de filosofie van de natuurwetenschappen, Cambridge: Cambridge University Press.
  • –––, 1988. 'Over de stabiliteit van de laboratoriumwetenschappen', The Journal of Philosophy, 85: 507–15.
  • –––, 1992. "Hebben gedachte-experimenten een eigen leven?" PSA (Volume 2), A. Fine, M. Forbes en K. Okruhlik (red.), East Lansing: The Philosophy of Science Association, 302–10.
  • Hartmann, S., 1996. "De wereld als proces: simulaties in de natuurlijke en sociale wetenschappen", in R. Hegselmann, et al. (red.), Modellering en simulatie in de sociale wetenschappen vanuit het perspectief van de wetenschapsfilosofie, Dordrecht: Kluwer, 77–100.
  • Hubig, C, & Kaminski, A., 2017. "Outlines of a pragmatic theory of truth and error in computers simulation", in M. Resch, A. Kaminski, & P. Gehring (red.), The Science and Art of Simulatie (deel I), Cham: Springer, pp. 121–136.
  • Hughes, R., 1999. "The Ising Model, Computersimulation, and Universal Physics", in M. Morgan en M. Morrison (red.), Models as Mediators, Cambridge: Cambridge University Press.
  • Huggins, EM en EA Schultz, 1967. 'Baai van San Francisco in een pakhuis', Journal of the Institute of Environmental Sciences and Technology, 10 (5): 9–16.
  • Humphreys, P., 1990. "Computersimulatie", in A. Fine, M. Forbes, en L. Wessels (red.), PSA 1990 (Deel 2), East Lansing, MI: The Philosophy of Science Association, 497– 506.
  • –––, 1995. 'Computationele wetenschap en wetenschappelijke methode', in Minds and Machines, 5 (1): 499–512.
  • –––, 2004. Onszelf uitbreiden: computationele wetenschap, empirisme en wetenschappelijke methode, New York: Oxford University Press.
  • –––, 2009. 'De filosofische nieuwigheid van computersimulatiemethoden', Synthese, 169: 615–626.
  • Kaufmann, WJ en LL Smarr, 1993. Supercomputing and the Transformation of Science, New York: Scientific American Library.
  • Laymon, R., 1985. "Idealisaties en het testen van theorieën door experimenteren", in Observation, Experiment and Hypothesis in Modern Physical Science, P. Achinstein en O. Hannaway (red.), Cambridge, MA: MIT Press, 147– 73.
  • Lenhard, J., 2007. "Computersimulatie: de samenwerking tussen experimenteren en modelleren", Wetenschapsfilosofie, 74: 176–94.
  • –––, 2019. Berekende verrassingen: een filosofie van computersimulatie, Oxford: Oxford University Press
  • Lenhard, J. & Küster, U., 2019. Minds & Machines. 29:19.
  • Morgan, M., 2003. "Experimenten zonder materiële interventie: modelexperimenten, virtuele experimenten en virtuele experimenten", in The Philosophy of Scientific Experimentation, H. Radder (red.), Pittsburgh, PA: University of Pittsburgh Press, 216–35.
  • Morrison, M., 2012. "Modellen, metingen en computersimulatie: het veranderende gezicht van experimenten", Philosophical Studies, 143: 33–57.
  • Norton, S., en F. Suppe, 2001. "Waarom atmosferisch modelleren goede wetenschap is", in Changing the Atmosphere: Expert Knowledge and Environmental Governance, C. Miller en P. Edwards (red.), Cambridge, MA: MIT Press, 88–133.
  • Oberkampf, W. en C. Roy, 2010. Verificatie en validatie in wetenschappelijke informatica, Cambridge: Cambridge University Press.
  • Oreskes, N., met K. Shrader-Frechette en K. Belitz, 1994. "Verificatie, validatie en bevestiging van numerieke modellen in de aardwetenschappen", Science, 263 (5147): 641–646.
  • Parke, E., 2014. "Experimenten, simulaties en epistemische privileges", Wetenschapsfilosofie, 81 (4): 516–36.
  • Parker, W., 2008a. 'Franklin, Holmes en de epistemologie van computersimulatie', International Studies in the Philosophy of Science, 22 (2): 165–83.
  • –––, 2008b. 'Computersimulatie door een fout-statistische lens', Synthese, 163 (3): 371–84.
  • –––, 2009a. 'Maakt het echt iets uit? Computersimulaties, experimenten en materialiteit ', Synthese, 169 (3): 483–96.
  • –––, 2013. "Computersimulatie", in S. Psillos en M. Curd (red.), The Routledge Companion to Philosophy of Science, 2e editie, London: Routledge.
  • –––, 2017. "Computersimulatie, meting en data-assimilatie", British Journal for the Philosophy of Science, 68 (1): 273–304.
  • Peschard, I., 2010. 'Modelling and Experimenting', in P. Humphreys en C. Imbert (eds), Models, Simulations, and Representations, London: Routledge, 42–61.
  • Primiero, G., 2019. "A Minimalist Epistemology for Agent-Based Simulation in the Artificial Sciences", Minds and Machines, 29 (1): 127–148.
  • Purves, GM, komt eraan. 'Waarheid vinden in ficties: het identificeren van niet-ficties in denkbeeldige scheuren', zei Synthese.
  • Resch, MM, Kaminski, A., & Gehring, P. (red.), 2017. De wetenschap en kunst van simulatie I: Exploring-understanding-know, Berlin: Springer.
  • Roush, S., 2015. "De epistemische superioriteit van experiment tot simulatie", Synthese, 169: 1–24.
  • Roy, S., 2005. "Recente vooruitgang in numerieke methoden voor vloeistofdynamica en warmteoverdracht", Journal of Fluid Engineering, 127 (4): 629–30.
  • Ruphy, S., 2015. "Computersimulaties: een nieuwe manier van wetenschappelijk onderzoek?" in SO Hansen (red.), The Role of Technology in Science: Philosophical Perspectives, Dordrecht: Springer, pp. 131–149
  • Schelling, TC, 1971. "Dynamische modellen van segregatie", Journal of Mathematical Sociology, 1: 143–186.
  • Simon, H., 1969. The Sciences of the Artificial, Boston, MA: MIT Press.
  • Symons, J., & Alvarado, R., 2019. "Epistemische rechten en de praktijk van computersimulatie", Minds and Machines, 29 (1): 37–60.
  • Toon, A., 2010. 'Nieuwe benaderingen van modellen', Metascience, 19 (2): 285–288.
  • Trenholme R., 1994. 'Analog Simulation', Wetenschapsfilosofie, 61: 115–131.
  • Unruh, WG, 1981. "Experimentele verdamping van zwarte gaten?" Physical Review Letters, 46 (21): 1351–53.
  • Winsberg, E., 2018. Filosofie en klimaatwetenschap, Cambridge: Cambridge University Press
  • –––, 2010. Wetenschap in het tijdperk van computersimulatie, Chicago: The University of Chicago Press.
  • –––, 2009a. 'A Tale of Two Methods', Synthese, 169 (3): 575–92
  • –––, 2009b. 'Computersimulatie en wetenschapsfilosofie', Philosophy Compass, 4/5: 835–845.
  • –––, 2009c. "A Function for Fictions: Expanding the scope of science", in Fictions in Science: Philosophical Essays on Modeling and Idealization, M. Suarez (red.), London: Routledge.
  • –––, 2006. "Handenschudden naar de top: inconsistentie en vervalsing bij intertheoretische reductie", Wetenschapsfilosofie, 73: 582–594.
  • –––, 2003. 'Gesimuleerde experimenten: methodologie voor een virtuele wereld', Wetenschapsfilosofie, 70: 105–125.
  • –––, 2001. "Simulaties, modellen en theorieën: complexe fysische systemen en hun representaties", Wetenschapsfilosofie, 68: S442 – S454.
  • –––, 1999. “Sanctioning Models: The Epistemology of Simulation”, Science in Context, 12 (3): 275–92.

Academische hulpmiddelen

sep man pictogram
sep man pictogram
Hoe deze vermelding te citeren.
sep man pictogram
sep man pictogram
Bekijk een voorbeeld van de PDF-versie van dit item bij de Vrienden van de SEP Society.
inpho icoon
inpho icoon
Zoek dit itemonderwerp op bij het Internet Philosophy Ontology Project (InPhO).
phil papieren pictogram
phil papieren pictogram
Verbeterde bibliografie voor dit item op PhilPapers, met links naar de database.

Andere internetbronnen

  • Phys.org - computersimulaties.
  • Computersimulatie, op sciencedaily.com.
  • IPPC - Intergouvernementeel panel voor klimaatverandering.

Populair per onderwerp