Entropie is groter dan 1. Entropie in ons leven

Entropie is groter dan 1. Entropie in ons leven

Op het alledaagse niveau is entropie een maatstaf voor wanorde of een maatstaf voor onzekerheid.

In de natuurkunde wordt entropie gerekend tot fundamentele concepten als energie of temperatuur. Entropie kan worden gedefinieerd als een van de thermodynamische basisfuncties (dit werd voor het eerst gedaan door Clausius).

Een van de belangrijkste fundamentele eigenschappen van de wereld waarin we leven wordt de tweede wet van de thermodynamica genoemd. Er zijn drie uiterlijk verschillende, maar logisch gelijkwaardige formuleringen van de tweede wet van de thermodynamica. In de formulering van Thomson-Planck staat: het is onmogelijk om een ​​periodiek werkende machine te construeren, waarvan het enige resultaat zou zijn dat de belasting zou worden verhoogd door het thermische reservoir te koelen. Er is een Clausius-formulering: warmte kan niet spontaan worden overgedragen van een minder verwarmd lichaam naar een meer verwarmd lichaam. In de derde formulering van deze fundamentele wet, “de belangrijkste acteur" is entropie: in een adiabatisch geïsoleerd systeem kan de entropie niet afnemen; deze neemt toe of blijft constant.

Uit deze formulering blijkt dat de fundamentele onomkeerbaarheid van fysieke processen het duidelijkst wordt, evenals de onvermijdelijke achteruitgang van elk gesloten systeem (allemaal verschillende vormen energie verandert uiteindelijk in warmte, waarna er geen processen meer mogelijk zijn). Clausius generaliseerde dit principe naar het hele universum en formuleerde de hypothese van de thermische dood van het universum.

Deze onomkeerbaarheid van processen, die een gevolg is van het tweede principe, was schijnbaar in tegenspraak met de omkeerbare aard van mechanische beweging. Nadenkend over deze paradox ontdekte Boltzmann een absoluut verbazingwekkende formule voor entropie, die een geheel nieuwe inhoud onthulde. Met behulp van statistische methoden toonde Boltzmann aan dat entropie recht evenredig is met de logaritme van de thermodynamische waarschijnlijkheid. Deze formule is uitgehouwen op de grafsteen van de wetenschapper op de centrale begraafplaats van Wenen. Deze ontdekking van Boltzmann is des te belangrijker omdat het concept van waarschijnlijkheid voor het eerst doordrong tot in de fundamenten van de natuurkunde (enkele decennia vóór de constructie van een nieuw wereldbeeld gebaseerd op de kwantummechanica).

Volgens Boltzmann zou de tweede wet van de thermodynamica dus als volgt kunnen klinken: de natuur streeft naar een overgang van minder waarschijnlijke toestanden naar meer waarschijnlijke toestanden.

Van het verband tussen entropie en waarschijnlijkheid volgens Boltzmann kan men overgaan tot de definitie van entropie in de informatietheorie, die werd gedaan door Shannon. Entropie in de informatietheorie fungeert als een maatstaf voor onzekerheid. Het concept van informatie is in zekere zin het tegenovergestelde van het concept van entropie. Meer precies wordt informatie gedefinieerd als het verschil tussen onvoorwaardelijke en voorwaardelijke entropieën, maar het is niet mogelijk dit uit te leggen zonder formules.

Alle energie uit de verbranding van benzine in alle auto's ter wereld het afgelopen jaar ging uiteindelijk naar het verwarmen van de lucht en de aarde. Dit is wat entropie is, en dit fenomeen is aanwezig in elk proces, in elk systeem.

Deze overgang naar warmte bij een lage temperatuur betekent een toename van de wanorde in de beweging van moleculen. Zelfs als warmte behouden blijft, zoals wanneer warme en koude lucht zich vermengen, neemt de wanorde nog steeds toe: (een groep snelle moleculen in het ene gebied) + (een groep langzame moleculen in een ander gebied) wordt (een mengsel van moleculen met chaotische bewegingen ertussen ). Beschouwing van zowel het eenvoudige mengen van warm en koud gas als de algemene theoretische studie van warmtemotoren (thermodynamica) leidt ons tot de conclusie dat de natuurlijke tendens een verandering in entropie is - een toename van wanorde in de loop van de tijd.

Het geeft tijd belangrijk bezit- directionaliteit bij statistische processen. In eenvoudige mechanica, uitgedrukt in de wetten van Newton, kan de tijd in beide richtingen stromen. Een film over de botsing van twee moleculen zal er even plausibel uitzien, ongeacht hoe we de film beginnen – vanaf het begin of vanaf het einde. Maar de film, waarin hete gasmoleculen zich vermengen met koude, ziet er wild uit als je hem vanaf het einde begint. De botsingen van talloze moleculen geven dus de richting aan van het verloop van de tijd in onze wereld. Er werd een fysieke maatstaf voor ‘wanorde’ uitgevonden, het ‘principe van entropie’ genaamd.

Ze zeggen: “Volgens de wet van de entropie heeft de wanorde in het heelal de neiging toe te nemen.” Dit is waar het idee van de ‘thermische dood’ van het heelal ontstond, wanneer alles zich op dezelfde lage temperatuur en maximale wanorde van materie en straling zou bevinden.

Het concept van entropie kan worden gedefinieerd als de verhouding tussen de hoeveelheid warmte en de absolute temperatuur, of als de waarschijnlijkheid van een bepaalde configuratie in de wereld van moleculen. Verdere details van deze definitie en het gebruik ervan zouden ons te ver buiten het bestek van deze cursus voeren, maar het is de moeite waard om dit concept in de ontwikkeling te observeren. moderne wetenschap. “De toekomst behoort toe aan degenen,” zei Frederick Keffer, “die de entropie kunnen beheersen… De industriële revoluties uit het verleden hadden alleen invloed op het energieverbruik, maar de automatische fabrieken van de toekomst zijn een revolutie van entropie.”

Bij botsingen kunnen gasmoleculen in principe worden verdeeld in snelle (hete) moleculen in het ene deel van het vat en langzame (koude) moleculen in het andere deel. Dit zou een afname van de wanorde betekenen, in tegenstelling tot wat de wet van de toenemende entropie voorspelt. Maar zo’n willekeurige gebeurtenis is bijna onwaarschijnlijk – niet onmogelijk, maar eenvoudigweg uiterst onwaarschijnlijk. De meest waarschijnlijke stoornis is de rangschikking en snelheid van moleculen, zodat een geordende rangschikking na meerdere botsingen waarschijnlijk weer chaotisch wordt.

Het ontstaan ​​van orde is zeer onwaarschijnlijk, zelfs over een zeer lange tijd. Het ontstaan ​​van orde is uiterst onwaarschijnlijk..., wanorde is zeer waarschijnlijk. Daarom kunnen de eigenschappen van entropie op drie gelijkwaardige manieren worden gedefinieerd: 1) als maatstaf voor wanorde; 2) door hitte en temperatuur; 3) via de waarschijnlijkheden van moleculaire configuraties (hoe statistisch waarschijnlijk ze zijn).

De tweede wet van de thermodynamica luidt in essentie: entropie heeft de neiging toe te nemen. Door onvermijdelijke processen zoals warmteverlies, wrijving, inelastische botsingen... neemt deze toe. Het hoogste waar we op kunnen hopen in het geval van een continu werkende perfecte-warmtemotor is het constant houden van de entropie.

De verandering in entropie is erg belangrijk voor het berekenen van de werking van warmtemotoren, waarbij we ernaar streven alle beschikbare thermische energie te verbruiken. Het is blijkbaar erg belangrijk voor biologische objecten waarbij één richting van de tijd domineert.

Het idee van het entropieprincipe wordt trouwens ook gebruikt in de ‘informatietheorie’, die ten grondslag ligt aan het ontwerp van communicatiesystemen, enz. Laten we aannemen dat het je lukt om de beweging van een individueel gasmolecuul te observeren en de beweging van elk van hen. Achter deze gedetailleerde informatie zie je het gas niet als een homogeen systeem in een staat van maximale chaos, maar zie je alleen dat de beweging uiterst onregelmatig is.

Door informatie te ontvangen, verminder je de entropie. De informatie die per telefoon wordt verzonden in de vorm van een bericht van thermometer naar thermostaat lijkt dus op negatieve entropie. Deze analogie is effectief bij het coderen van meerdere gelijktijdige telefoongesprekken, het creëren van versterkers, het verbeteren van de kwaliteit van geluidsopnameapparatuur, het ontwerpen van automatische machines en het bestuderen van onze eigen zenuwstelsel, taal, geheugen en misschien de geest.

Zowat het complexe - Wat is entropie, veranderingen in de entropie van processen en systemen, het concept van entropie, eigenschappen en wetten van entropie

  • Galerij met afbeeldingen, afbeeldingen, foto's.
  • Wat is entropie - basis, mogelijkheden, vooruitzichten, ontwikkeling.
  • Interessante feiten, nuttige informatie.
  • Groen Nieuws – Wat is entropie.
  • Links naar materialen en bronnen - Wat is entropie, veranderingen in de entropie van processen en systemen, het concept van entropie, eigenschappen en wetten van entropie.
    Gerelateerde berichten

Al snel zul je beseffen dat het je niet zal lukken, maar wees niet ontmoedigd: je hebt de Rubiks kubus niet opgelost, maar je hebt de tweede wet van de thermodynamica geïllustreerd:

De entropie van een geïsoleerd systeem kan niet afnemen.

De heldin van Woody Allens film What Works geeft de volgende definitie van entropie: dat maakt het moeilijk om het weer in de buis te stoppen tandpasta. Ze legt ook op een interessante manier het onzekerheidsprincipe van Heisenberg uit, nog een reden om de film te kijken.

Entropie is een maatstaf voor wanorde, chaos. Je hebt vrienden uitgenodigd nieuwjaarsfeest, opgeruimd, de vloer gewassen, snacks op tafel gezet, drankjes klaargezet. Kortom, ze brachten alles op orde en elimineerden zoveel mogelijk chaos. Dit is een systeem met lage entropie.

Jullie kunnen je waarschijnlijk allemaal voorstellen wat er met het appartement gebeurt als het feest een succes is: complete chaos. Maar 's ochtends heb je een systeem met hoge entropie tot je beschikking.

Om het appartement op orde te brengen, moet je opruimen, wat betekent dat je er veel energie aan besteedt. De entropie van het systeem is afgenomen, maar er is geen tegenspraak met de tweede wet van de thermodynamica: je hebt energie van buitenaf toegevoegd en dit systeem is niet langer geïsoleerd.

Ongelijk gevecht

Een van de opties voor het einde van de wereld is de thermische dood van het heelal als gevolg van de tweede wet van de thermodynamica. De entropie van het universum zal zijn maximum bereiken en er zal niets anders in gebeuren.

Over het algemeen klinkt alles nogal deprimerend: in de natuur neigen alle geordende dingen naar vernietiging, naar chaos. Maar waar komt het leven op aarde dan vandaan? Alle levende organismen zijn ongelooflijk complex en ordelijk, en besteden op de een of andere manier hun hele leven aan het bestrijden van entropie (hoewel deze uiteindelijk altijd wint).

Het is heel eenvoudig. Levende organismen herverdelen tijdens het leven de entropie om zichzelf heen, dat wil zeggen dat ze hun entropie geven aan alles wat ze kunnen. Als we bijvoorbeeld een broodje eten, maken we van mooi, besteld brood en boter iets bekends. Het blijkt dat we onze entropie aan de sandwich hebben gegeven, en erin gemeenschappelijk systeem entropie is niet afgenomen.

En als we de aarde als geheel nemen, dan is het helemaal geen gesloten systeem: de zon voorziet ons van energie om entropie te bestrijden.

Entropie is een grootheid die de mate van wanorde karakteriseert, evenals de thermische toestand van het heelal. De Grieken definieerden dit concept als een transformatie of revolutie. Maar in de astronomie en natuurkunde is de betekenis ervan enigszins anders. Spreken in eenvoudige taal, entropie is een maatstaf voor chaos.

Soort

Dit concept kwam in de 19e eeuw in de wetenschap terecht. Aanvankelijk was het toepasbaar op de theorie van warmtemotoren, maar het verscheen al snel in andere gebieden van de natuurkunde, vooral in de stralingstheorie. Al snel werd entropie gebruikt in de kosmologie, biologie en informatietheorie. Verschillende kennisgebieden worden benadrukt verschillende soorten maatregelen van chaos:

  • informatief
  • thermodynamisch
  • differentieel
  • cultureel

Voor moleculaire systemen is er bijvoorbeeld de Boltzmann-entropie, die de mate van hun chaos en homogeniteit bepaalt. Boltzmann kon een verband leggen tussen de mate van chaos en de waarschijnlijkheid van een staat. Voor de thermodynamica wordt dit concept beschouwd als een maatstaf voor onomkeerbare energiedissipatie. Het is een functie van de toestand van het thermodynamische systeem.

In een geïsoleerd systeem groeit de entropie naar maximale waarden, en uiteindelijk wordt er een evenwichtstoestand bereikt.

Informatie-entropie impliceert een zekere mate van onzekerheid of onvoorspelbaarheid.

Entropie van het heelal

Kan niet worden toegepast op het universum klassieke versie entropieberekeningen omdat ze actief zijn zwaartekrachten, en materie kan op zichzelf geen gesloten systeem vormen. In feite is het voor het universum een ​​maatstaf voor chaos. Pogingen om de waarde van de maatstaf voor chaos nauwkeurig te berekenen, kunnen nog niet succesvol worden genoemd, hoewel ze voortdurend voorkomen. Maar alle schattingen van de entropie van het heelal hebben een aanzienlijke spreiding in de verkregen waarden - van één tot drie ordes van grootte. Dit komt niet alleen door een gebrek aan kennis. Er is een gebrek aan informatie over de invloed op berekeningen, niet alleen van alle bekende hemellichamen, maar ook van donkere energie. De studie van de eigenschappen en kenmerken ervan staat nog in de kinderschoenen, maar de invloed ervan kan doorslaggevend zijn. De mate van chaos in het heelal verandert voortdurend.

Hittedood van het heelal

Elk gesloten thermodynamisch systeem heeft een eindtoestand. Het universum is ook geen uitzondering. Wanneer de gerichte uitwisseling van alle soorten energieën stopt, zullen ze herboren worden thermische energie. Het systeem zal in een staat van thermische dood terechtkomen als de thermodynamische entropie bereikt wordt hoogste waarde. De conclusie over dit einde van onze wereld werd in 1865 geformuleerd door R. Clausius. Hij nam de tweede wet van de thermodynamica als basis. Volgens deze wet zal een systeem dat geen energie uitwisselt met andere systemen een evenwichtstoestand nastreven. En het kan heel goed parameters hebben die kenmerkend zijn voor de thermische dood van het heelal. Maar Clausius hield geen rekening met de invloed van de zwaartekracht. Dat wil zeggen, voor het universum, in tegenstelling tot het systeem ideaal gas, waar deeltjes uniform in een bepaald volume zijn verdeeld, kan de uniformiteit van deeltjes niet overeenkomen met de grootste entropiewaarde. En toch is het niet helemaal duidelijk of entropie een aanvaardbare maatstaf is voor chaos of de dood van het heelal?

In ons leven

In strijd met de tweede wet van de thermodynamica, volgens welke alles zich zou moeten ontwikkelen van complex naar eenvoudig, beweegt de ontwikkeling van de aardse evolutie zich in de tegenovergestelde richting. Deze discrepantie is te wijten aan de thermodynamica van processen die onomkeerbaar zijn. Consumptie door een levend organisme, als we het ons voorstellen als een open thermodynamisch systeem, vindt plaats in kleinere volumes dan eruit worden uitgestoten.

Voedingsstoffen hebben minder entropie dan de uitscheidingsproducten die daaruit worden geproduceerd.

Dat wil zeggen, het organisme leeft omdat het deze mate van chaos kan weggooien, die erin wordt geproduceerd als gevolg van het optreden van onomkeerbare processen. Er wordt bijvoorbeeld door verdamping ongeveer 170 g water uit het lichaam verwijderd, d.w.z. het menselijk lichaam compenseert de afname van de entropie door bepaalde chemische en fysische processen.

Entropie is een bepaalde maatstaf voor de vrije toestand van een systeem. Het is des te completer naarmate dit systeem minder beperkingen kent, maar op voorwaarde dat het vele vrijheidsgraden kent. Het blijkt dat de nulwaarde van de chaosmaatstaf is volledige informatie, en het maximum is absolute onwetendheid.

Ons hele leven is pure entropie, omdat de mate van chaos soms de mate van gezond verstand overtreft. Misschien is de tijd nog niet zo ver weg als we bij de tweede wet van de thermodynamica komen, omdat het soms lijkt alsof de ontwikkeling van sommige mensen, en zelfs hele staten, al achteruit is gegaan, dat wil zeggen van het complexe naar het primitieve.

Zowel natuurkundigen als tekstschrijvers gebruiken het concept van ‘entropie’. Vertaald uit oude Griekse taal In het Russisch wordt het woord ‘entropie’ geassocieerd met rotatie, transformatie.

Vertegenwoordigers van de exacte wetenschappen (wiskunde en natuurkunde) introduceerden deze term in wetenschappelijk gebruik en breidden deze uit naar de informatica en de scheikunde. R. Clausius en L. Boltzmann, E. Jaynes en K. Shannon, K. Jung en M. Planck hebben het bovengenoemde fenomeen gedefinieerd en bestudeerd.

Dit artikel vat de belangrijkste benaderingen voor het bepalen van entropie op verschillende wetenschappelijke gebieden samen en systematiseert deze.

Entropie in exacte en natuurwetenschappen

Beginnend met de vertegenwoordiger van de exacte wetenschappen R. Clausis, duidt de term ‘entropie’ de maat aan:

  • onomkeerbare energiedissipatie in de thermodynamica;
  • de waarschijnlijkheid van de implementatie van welk macroscopisch proces dan ook in de statistische natuurkunde;
  • onzekerheid van elk systeem in de wiskunde;
  • informatiecapaciteit van een systeem in de informatica.

Deze maatstaf wordt uitgedrukt in formules en grafieken.

Entropie als humanitair concept

K. Jung introduceerde een ons bekend concept in de psychoanalyse, waarbij hij de dynamiek van de persoonlijkheid bestudeerde. Onderzoekers op het gebied van de psychologie, en vervolgens de sociologie, identificeren en definiëren de entropie van persoonlijkheid sociale entropie als graad:

  • onzekerheid over de staat van de persoonlijkheid in de psychologie;
  • psychische energie die niet kan worden gebruikt als deze wordt geïnvesteerd in een studieobject in de psychoanalyse;
  • de hoeveelheid energie die niet beschikbaar is voor sociale verandering, sociale vooruitgang in de sociologie;
  • dynamiek van persoonlijkheidsentropie.

Het concept van entropie bleek veelgevraagd en handig in theorieën, zowel in de natuurwetenschappen als in de geesteswetenschappen. Over het algemeen hangt entropie nauw samen met de mate, mate van onzekerheid, chaos en wanorde in elk systeem.

bekeken