Janusz Arkadiusz Janusz Arkadiusz
114
BLOG

Definicja, hipoteza, teoria, zasada, model – podstawowe cechy i zastosowanie.

Janusz Arkadiusz Janusz Arkadiusz Technologie Obserwuj notkę 7
Inspiracją do napisania tej notki stały się reakcje spotykane w komentarzach: „To jest tylko teoria? To oni tego nie wiedzą na pewno?”. Intuicjonistyczne rozumienie terminów prowadzi do nieporozumień – język którym posługujemy się na co dzień jest wieloznaczny i nieprecyzyjny. Jest też językiem żywym – znaczenie słów zmienia się wraz z upływem czasu. Warto znać podstawowe cechy i zastosowanie w praktyce najbardziej podstawowych pojęć tworzących podstawy metodologii dyscyplin naukowych.

Podstawą każdej dyscypliny naukowej są definicje. Definicja likwiduje największą wadę języków nieformalnych – powinna w sposób jednoznaczny określić cechy definiowanego obiektu – dodajmy cechy bez których dany obiekt nie istnieje. Daje to klarowność wywodu – wszystkie używane pojęcia powinny być zdefiniowane przed ich użyciem w tekście. Zabieg taki daje gwarancję że nasz odbiorca zrozumie przekaz w sposób prawidłowy.

Definicja nie może odwoływać się do siebie samej (rekurencja). Musi istnieć inne niezależne pojęcie na gruncie którego opisujemy cechy obiektu. U podstaw nauk ścisłych leży cały szereg pojęć pierwotnych, pojmowanych intuicyjnie dla których nie istnieją żadne precyzyjne opisania. Każda próba stworzenia definicji jest rekurencją. Wymieńmy niektóre: Zbiór, liczba, przynależność elementu do zbioru, prędkość, masa i inne.

Jeżeli dane pojęcie zostało już zdefiniowane przez kogoś innego, nie będziemy oczywiście przepisywać definicji „słowo w słowo”. Wystarczy odnośnik (przypis) do źródła zawierającego daną definicję. Funkcja przypisu nie ogranicza się tutaj .tylko oczywiście do definicji, jest to jednak temat którego niniejsza notka nie obejmuje. Więcej o przypisach w sposób zrozumiały znajdziecie tutaj: https://poprawaprac.pl/przypisy-i-bibliografia-w-pracy-licencjackiej-magisterskiej-inzynierskiej/

Rozbieżność między teorią opisaną poniżej a codzienną praktyką jest duża. Powyższa zasada respektowana jest w pracach magisterskich, licencjackich i rozprawach doktorskich. Stąd ciekawy paradoks „Principia Mathematica” Russella była cytowana setki tysięcy razy, tyle tylko że nikt jej od niepamiętnych czasów nie przeczytał …

W pracach naukowych gdzie adresatem jest inny badacz, nie definiuje się pojęć podstawowych i tworzących „żargon” danej specjalności. Tu cechą decydującą jest zwięzłe przekazanie treści innemu specjaliście, co zważywszy na liczbę ukazujących się prac jest sensowne. Stąd też stosowanie formy „abstraktu” esencji treści zawartej na początku artykułu - innemu specjaliście łatwiej przeczytać 20 abstraktów i wybrać tylko te artykuły które go interesują.

Liczba cytowań danej pracy – powoływania się na daną treść w pracach innych autorów jest zresztą podstawowym kryterium jej wartości.

Szerzej o definicjach ( i bardziej profesjonalnie ) : https://mfiles.pl/pl/index.php/Definicja

Następnym pojęciem jest hipoteza. Najprościej: to przypuszczenie, idea tłumacząca dane zjawisko. Hipotezy nie trzeba uzasadniać. Jeśli jest zasadna i zwróci uwagę innych badaczy, może stać się zaczątkiem teorii. Nie wymaga stosowania i znajomości matematyki (chyba że samej matematyki dotyczy ). Mogę więc na poczekaniu wysnuć hipotezę że Księzyc zrobiony jest z sera. Ciemne plamy na jego powierzchni są tworzone przez odmiany sera pleśniowego (stąd inna barwa). W odniesieniu do samej metodologii nie popełniłem błędu. Tyle tylko że nikt za wyjątkiem garstki dziwaków, nie potraktuje jej poważnie.

Hipotezy są punktem wyjściowym - pozwalają w prostszy sposób wysnuć domniemanie o istocie jakiegoś procesu lub zjawiska. To jakby fundament na którym tworzona jest wiedza.

Na gruncie hipotez wyrastają teorie. Podstawą teorii jest aksjomatyka ( nawet jeśli przyjmowana jest intuicyjnie) – zbiór twierdzeń których prawdziwości nie muszę udowadniać. Ciekawy paradoks: często aksjomat leżący u podstaw teorii jest nieprawdziwy a mimo tego otrzymane wyniki są zgodne z rzeczywistością. Świadczy to o tym że dany aksjomat jest uproszczeniem, uogólnieniem. Einstein w STW (Szczególna Teoria Względności), jako jeden z aksjomatów przyjął że światło zawsze rozchodzi się po liniach prostych. W późniejszej teorii (Ogólna Teoria Względności) jednym z wniosków było stwierdzenie że światło rozchodzi się po liniach krzywych, a jego przebieg wyznacza obecność. obiektów masowych zakrzywiających drogę światła. Dziś wiemy że że nie istnieje coś takiego jak linia prosta w sensie geometrycznym. Czy więc Einstein się mylił? Nie, przyjął jako postulat twierdzenie które na potrzeby STW było wystarczające by móc na nim oprzeć swoje prace.

Cechą teorii jest to że opisując istotę jakiegoś procesu przewidują one skutki które wywołuje dany proces w tym też takie które do tej pory zostały niezauważone. Karl Popper w swojej pracy wprowadził terminy „falsyfikacja” i „konfirmacja” . Falsyfikacja jest udowodnieniem że dana teoria jest fałszywa, płynące niej wnioski nie podlegają obserwacji lub przewidywane skutki w niej opisane nie występują. Konfirmacja jest częściowym potwierdzeniem wniosków danej teorii.

Istnieją teorie niefalsyfikowane – nie sposób udowodnić czy są fałszywe czy prawdziwe. Nie istnieje natomiast teoria ostateczna – zawsze może się okazać że istnieje teoria bardziej ogólna w której rozpatrywana teoria jest przypadkiem szczególnym. Ładnie obrazuje to zestawienie dwóch fundamentalnych teorii – Mechaniki Newtonowskiej i STW. STW w żaden sposób nie neguje mechaniki Newtona. Stwierdza tylko że jest do stosowania przy niskich prędkościach, występujące wtedy efekty relatywistyczne są tak małe że mogą być pominięte. Fakt że czas człowieka jadącego szybko samochodem biegnie wolniej o milionowe części sekundy niczego nie zmienia w stosowanym przez nas systemie pomiaru czasu gdzie w ekstremalnych zastosowaniach wymagamy dokładności rzędu setnych części sekundy (dyscypliny zimowe).Trajektorie sond kosmicznych są liczone „po staremu” bo margines błędu jest tak minimalny że nie opłaca się komplikować obliczeń. Jeżeli jednak mówimy o prędkościach większych, wszystko zmienia się diametralnie. Tutaj Newton zawodzi.

Mówimy tu o zakresie stosowalności danej teorii. Dla STW i OTW mechanika newtonowska jest więc przypadkiem szczególnym, kiedy w obliczeniach można pominąć efekty relatywistyczne.

Wiemy że istnieje teoria jeszcze bardziej ogólna: łącząca świat kwantowy z makroskopowym. Nikomu na razie jeszcze się nie udało.

Każda teoria podlega nieustannemu sprawdzaniu. Możemy powiedzieć że wszystkie dotychczasowe sprawdzania wykazały jej prawdziwość – a więc prawdopodobieństwo że prawidłowo opisuje rzeczywistość jest duże. Nigdy jednak nie możemy powiedzieć że wiemy coś na pewno.

Pewność co do prawdziwości mamy w przypadku praw, które nazywamy zasadami. Opisują one najbardziej podstawowe cechy naszej rzeczywistości. – ich zanegowanie podważa cała dotychczasową naszą wiedzę zarówno teoretyczną i praktyczną. Do najbardziej znanych należą trzy zasady dynamiki Newtona i trzy zasady termodynamiki. Określenie „zasada” jest też stosowane do ogólnego opisu struktur wielkoskalowych w kosmologii, takich jak Wszechświat w którym żyjemy. W tym wypadku określenie „zasada” definiuje grupę założeń które powinny być uniwersalne dla naszego świata. Mówimy tu więc o zasadzie kosmologicznej, antropicznej, kopernikańskiej etc. … Kluczowe jest słowo „powinny”, nie istnieją dane które by im zaprzeczały. Używamy terminu zasada gdyż są podstawą nowoczesnej kosmologii a więc całej grupy teorii. Są tak ogólne że ich ewentualna „nieprawdziwość” wywróciłaby do góry nogami całą kosmologię. Nie można jednak mieć absolutnej pewności że są one prawdziwe. Jedna z takich zasad mówi o tym że wszechświat jest jednorodny tj. w każdym jego miejscu obowiązują takie same prawa fizyczne. A co jeżeli poźniejsze odkrycia podważą tą zasadę i pojawi się sprawdzalna teoria negująca ten pogląd. Na razie nic na to nie wskazuje, obserwacje i pomiary za każdym razem potwierdzają jej słuszność.

Opierając się na zasadach i teoriach tworzy się modele. Model to inaczej matematyczna symulacja, uwzględniająca wszystkie czynniki które oddziaływają ze sobą jednocześnie. Tym różni się od pojęcia funkcji która pokazuje tylko zależność między dwoma parametrami. Mówiąc inaczej jest to matematyczne odzwierciedlenie obserwowanej rzeczywistości. Wprowadzając do modelu dane otrzymujemy informacje o zmianie wielkości poszczególnych parametrów i wynikłe z tego skutki. Zastosowaniem modeli z którym stykamy się na co dzień jest prognoza pogody. Dane ze stacji meteorologicznych spływają do komputera który na podstawie modelu określa ruch i charakter mas powietrza co pozwala prognozowanie opadów, siły wiatru i temperatury.

Warto tu wspomnieć jeszcze o dwóch istotnych dla naszej wiedzy modelach. Model Standardowy opisuje świat kwantowy definiując ilość, rodzaje i wzajemne oddziaływanie pomiędzy cząstkami elementarnymi oraz dostarcza danych o ich budowie (kwarki). Stopniowo słyszy się jednak o coraz większych wątpliwościach co do jego prawidłowości. Problem ten powinna rozwiązać teoria łącząca świat kwantowy z OTW.

Drugim modelem o którym warto wspomnieć jest Model Lambda-CDM (cold-dark –matter) – opisuje on oddziaływania pomiędzy ciemną energią odpowiedzialną za rozszerzanie się Wszechświata, ciemną materią, fotonami i tradycyjnie pojmowaną materią. Nie wyjaśnia on jednak czym jest ciemna materia i energia, analizuje tylko skutki wywołane ich obecnością. To wiodący obecnie model w kosmologii. Nie jest oczywiście jedyny – istnieje co najmniej kilkanaście alternatywnych modeli.

Wymieniłem tu tylko najbardziej znaczące i ważne dla współczesnej nauki przykłady zastosowania modeli. Jest to jednak forma stosowana powszechnie, dająca możliwie największą wiedzę o funkcjonowaniu modelowanego układu zmiennych.


Nowości od blogera

Komentarze

Inne tematy w dziale Technologie