Historia komputera – jak powstały maszyny, które zmieni… — Transcript

Historia komputera od mechanicznych początków po erę mikroprocesorów i architekturę von Neumanna, która dominuje do dziś.

Key Takeaways

  • Historia komputerów to długa ewolucja od mechanicznych maszyn do zaawansowanych układów elektronicznych.
  • Architektura von Neumanna pozostaje podstawą działania komputerów od ponad 80 lat.
  • Miniaturyzacja i wzrost mocy obliczeniowej były możliwe dzięki tranzystorom i układom scalonym.
  • Pierwszy program komputerowy napisała Ada Lovelace, która rozdzieliła hardware od software.
  • Następny wielki przełom w historii komputerów może wymagać odejścia od architektury von Neumanna.

Summary

  • Historia komputerów zaczyna się znacznie wcześniej niż Dolina Krzemowa, sięgając czasów Leonarda da Vinci i pierwszych maszyn liczących.
  • W XVII wieku Gottfried Leibniz opracował system binarny, który jest podstawą współczesnych komputerów.
  • Charles Babbage w XIX wieku zaprojektował programowalną maszynę uniwersalną – silnik analityczny.
  • Ada Lovelace stworzyła pierwszy program komputerowy i rozdzieliła pojęcia hardware’u i software’u.
  • Przełomem były komputery elektroniczne z lampami próżniowymi, takie jak Z3, Colossus i ENIAC.
  • John von Neumann w 1945 roku opisał architekturę von Neumanna, która jest fundamentem współczesnych komputerów.
  • Wynalezienie tranzystora w 1947 roku umożliwiło budowę mniejszych, szybszych i bardziej niezawodnych komputerów drugiej generacji.
  • Pierwszy układ scalony stworzony przez Jacka Kilby’ego w 1958 roku zapoczątkował masową miniaturyzację komputerów.
  • Prawo Moore’a z 1964 roku przewidywało wykładniczy wzrost liczby tranzystorów, co napędzało rozwój technologii.
  • Era komputerów osobistych rozpoczęła się dzięki mikroprocesorowi Intel 4004 i popularnym modelom takim jak Altair 8800, Apple 1 oraz IBM PC.

Full Transcript — Download SRT & Markdown

00:00
Speaker A
Dzisiaj zabieram was w podróż w czasie, żeby prześledzić absolutnie niesamowitą historię komputera. I od razu mówię, zapomnijcie na chwilę o Dolinie Krzemowej. Nasza opowieść zaczyna się, no cóż, znacznie, znacznie wcześniej.
00:13
Speaker A
Mówimy tu o setkach lat. No właśnie, kiedy myślimy o początkach komputera, to co nam przychodzi do głowy? Lata 70., może czasy II wojny światowej. A co jeśli powiem, że to wszystko za późno?
00:27
Speaker A
Zobaczycie. Odpowiedź jest o wiele, wiele bardziej zaskakująca. O, widzicie, prawdziwe korzenie komputera nie mają nic wspólnego z krzemem. Sięgają ery mechanicznej. A wszystko zaczęło się od jednej bardzo prostej ludzkiej potrzeby. Po prostu chcieliśmy liczyć szybciej i dokładniej.
00:44
Speaker A
I to jest fascynujące. Ten główny cel, ta pogoń za obliczeniami właściwie pozostaje niezmienny od samego początku.
00:52
Speaker A
Chodziło o to, żeby budować coraz szybsze i co ważne, coraz bardziej wszechstronne maszyny. Spójrzmy na tę oś czasu. Ona świetnie pokazuje, jak powoli ten pomysł kiełkował. Zaczęło się, uwaga, od szkicu samego Leonarda da Vinci w 150 roku. Potem, ponad wiek później, w 1623
01:12
Speaker A
mamy pierwszą działającą maszynę Wilhelma Schicarda. Zaraz potem Blaise Pascal tworzy swoją słynną Pascalinę. Ale prawdziwy przełom, taki fundament, to rok 1675.
01:24
Speaker A
Gottfried Leibniz opracowuje system binarny. Tak, ten sam system zero-jedynkowy, który jest językiem komputerów do dzisiaj. Niesamowite, prawda? Okej, a teraz robimy duży skok w czasie. Lądujemy w XIX wieku i to jest ten moment, kiedy po raz pierwszy w
01:41
Speaker A
historii pojawia się absolutnie rewolucyjna idea. Myśl o maszynie, którą można zaprogramować. Mamy rok 1837 i poznajemy Charlesa Babbage’a. On wyobraził sobie coś, co nazwał silnikiem analitycznym. I żeby było jasne, to nie był po prostu kolejny lepszy kalkulator.
02:00
Speaker A
Nie, nie. To była idea maszyny uniwersalnej, takiej, która mogłaby wykonać dosłownie każde zadanie. Wystarczyło tylko dać jej odpowiednie instrukcje. No dobrze, więc kluczem była ta programowalność, ale skąd wziąć na to pomysł? Inspiracja, i to jest świetne, przyszła z krosna tkackiego. Tak, dobrze
02:17
Speaker A
słyszycie. Krosno Josepa Marii Jacquarda z roku używało kart perforowanych, żeby przechowywać wzory tkanin. I Babbage pomyślał: "Hej, a gdyby tak w ten sam sposób przechowywać nie wzory, a instrukcje matematyczne? Genialne w swojej prostocie". I tutaj na scenę wkracza absolutnie niezwykła postać Ada
02:36
Speaker A
Lovelace. To ona zrozumiała potencjał maszyny Babbage’a, być może nawet lepiej niż on sam. Dostrzegła, że ta maszyna może przetwarzać nie tylko liczby, ale w zasadzie dowolne symbole. I pisząc algorytm do obliczania liczby dla tej maszyny, stworzyła tak naprawdę
02:50
Speaker A
pierwszy w historii program komputerowy. To ona jako pierwsza oddzieliła koncepcję hardware’u, czyli maszyny, od software’u, instrukcji. Dobrze, a teraz przygotujcie się na ogromny skok.
03:01
Speaker A
Przenosimy się ze świata mechanicznych przekładni do świata obwodów elektrycznych, bo to właśnie elektryczność pozwoliła w końcu zbudować pierwsze prawdziwe komputery. I ta zmiana technologii była po prostu drastyczna. Pomyślcie, wczesne maszyny, na przykład Z3 Konrada Zusego z 1941 roku, wciąż działały na wolnych
03:25
Speaker A
mechanicznych przekaźnikach, które musiały się fizycznie poruszać. Prawdziwa rewolucja przyszła wraz z lampami próżniowymi. One nie miały żadnych ruchomych części. Efekt? Były tysiące razy szybsze. To one otworzyły drzwi do ery komputerów elektronicznych.
03:40
Speaker A
A te pierwsze komputery to były prawdziwe olbrzymy, potwory dosłownie. Brytyjski Colossus, który łamał niemieckie szyfry w czasie wojny, czy amerykański ENIAC. One zajmowały całe ogromne pokoje, ważyły tony, były przy tym piekielnie gorące i pożerały niewyobrażalne ilości energii. Służyły
03:58
Speaker A
też głównie do bardzo konkretnych celów, wojskowych, naukowych. Ale co najważniejsze, z tej epoki olbrzymów pochodzi koncepcja, która przetrwała do dziś i jest absolutnie kluczowa. W 1945 roku John von Neumann opisał coś, co znamy jako architekturę von Neumanna.
04:17
Speaker A
Pomysł był taki, żeby dane i instrukcje programu przechowywać w tej samej wspólnej pamięci. I wiecie co? To jest fundamentalny model, według którego działają praktycznie wszystkie nasze dzisiejsze urządzenia. Tak, smartfony i laptopy też. No dobrze, ale te lampy próżniowe miały też gigantyczne wady.
04:35
Speaker A
Były wielkie, pożerały mnóstwo energii i co gorsza, ciągle się psuły. Żeby pójść dalej, historia potrzebowała kolejnego przełomu, czegoś, co pozwoliłoby te maszyny wreszcie zmniejszyć,
04:46
Speaker A
przyspieszyć i co kluczowe, uczynić je bardziej niezawodnymi. I ten przełom nadszedł. Nazywał się tranzystor.
04:55
Speaker A
Wynaleziony w 1947 roku był po prostu rewolucją. Maleńki, super niezawodny, energooszczędny, zmielił absolutnie wszystko. To właśnie on pozwolił na budowę komputerów drugiej generacji, jak na przykład TX-0 z 1956 roku, a te były już znacznie, znacznie mniejsze i oczywiście potężniejsze. Myślicie, że to
05:18
Speaker A
koniec miniaturyzacji? Ależ skąd. W 1958 roku Jack Kilby poszedł o krok dalej. Wziął wiele tranzystorów i umieścił je wszystkie na jednym malutkim kawałku krzemu. W ten sposób stworzył pierwszy układ scalony. To był prawdziwy początek miniaturyzacji na masową skalę i
05:38
Speaker A
oczywiście trzeciej generacji komputerów. I ten szalony wykładniczy postęp zauważył Gordon Moore, współzałożyciel Intela. W 1964 roku
05:48
Speaker A
sformułował swoje słynne prawo, które mówiło, że liczba tranzystorów w układzie scalonym będzie się podwajać mniej więcej co rok, a później co 2 lata. Ta prosta obserwacja stała się samospełniającą się przepowiednią i prawdziwym silnikiem napędowym cyfrowej rewolucji. To dzięki niej komputery stawały
06:04
Speaker A
się jednocześnie coraz potężniejsze i coraz tańsze. I tak krok po kroku ta cała miniaturyzacja w końcu doprowadziła nas do momentu, w którym potężna moc obliczeniowa mogła trafić pod strzechy, do rąk zwykłych ludzi. Właśnie wchodzimy w erę komputera osobistego. Brakowało
06:22
Speaker A
tylko ostatniego kluczowego elementu tej układanki, a był nim mikroprocesor. W 1971 roku firma Intel wypuszcza na rynek model 4004.
06:34
Speaker A
To był cały procesor, cała jednostka centralna umieszczona na jednym malutkim chipie. To był ten mózg, na który czekała rewolucja komputerów osobistych. I od tego momentu wszystko potoczyło się już lawinowo. Najpierw w 1975 roku mamy iskrę Altair 8800, który rozpalił
06:54
Speaker A
wyobraźnię hobbystów. Potem na scenę wchodzą wizjonerzy Steve Jobs i Steve Wozniak, którzy z Apple 1 i Apple 2 pokazali, że komputer może być przyjazny i dostępny. Ale prawdziwym trzęsieniem ziemi był IBM PC z 1981 roku. Dlaczego? Bo jego otwarta
07:14
Speaker A
architektura stworzyła globalny standard, który zdominował rynek. A jak bardzo zdominował? Spójrzcie na ten wykres. On mówi wszystko. Nawet w 2013 roku, na jednego sprzedanego Maca od Apple przypadało ponad 16 komputerów zbudowanych w standardzie IBM PC. To pokazuje, jak potężna była strategia
07:32
Speaker A
otwartej licencji. Ukształtowała całą branżę hardwaru i software’u na całe dekady. I to wszystko prowadzi nas do być może najważniejszej konkluzji z całej tej opowieści. Pomyślcie o tym.
07:43
Speaker A
Mimo tego całego niesamowitego postępu, tej miniaturyzacji, niewyobrażalnego wzrostu mocy, fundamentalna architektura naszych urządzeń od laptopa po smartwatcha pozostaje w zasadzie niezmieniona od ponad 80 lat. Nadal w samym sercu naszych maszyn działamy na schematach, które wymyślili Turing i von Neumann w latach 40. I to zostawia nas z naprawdę intrygującym pytaniem na koniec. Skoro nasza technologia jest nie do poznania, a jej fundamentalny projekt, jej plan jest w zasadzie starożytny, co będzie potrzebne, żeby stworzyć następny? Jaki będzie kolejny
07:59
Speaker A
wielki przełom, który w końcu zastąpi architekturę von Neumanna i rozpocznie zupełnie, ale to zupełnie nową erę w historii komputerów?
08:17
Speaker A
M.
08:27
Speaker A
M.
Topics:historia komputerówCharles BabbageAda Lovelacearchitektura von Neumannatranzystorukład scalonyprawo Moore’akomputer osobistyprogramowanierozwój technologii

Frequently Asked Questions

Kiedy i kto stworzył pierwszy program komputerowy?

Pierwszy program komputerowy stworzyła Ada Lovelace w XIX wieku, pisząc algorytm dla maszyny analitycznej Charlesa Babbage’a.

Co to jest architektura von Neumanna i dlaczego jest ważna?

Architektura von Neumanna, opisana w 1945 roku, zakłada przechowywanie danych i instrukcji w tej samej pamięci, co jest fundamentem działania większości współczesnych komputerów.

Jakie znaczenie miał wynalazek tranzystora dla rozwoju komputerów?

Tranzystor wynaleziony w 1947 roku pozwolił na budowę mniejszych, szybszych i bardziej niezawodnych komputerów, co zapoczątkowało drugą generację maszyn komputerowych.

Get More with the Söz AI App

Transcribe recordings, audio files, and YouTube videos — with AI summaries, speaker detection, and unlimited transcriptions.

Or transcribe another YouTube video here →