Ny datorteknik?

Diskussioner kring teknikens utveckling genom tiderna och dess inverkan på vår historia.
Användarvisningsbild
marcorc
Medlem
Inlägg: 176
Blev medlem: 27 maj 2004, 14:39
Ort: Göteborg
Kontakt:

Inlägg av marcorc » 10 november 2006, 12:12

Bubbelminnen dog ju rätt fint när hårddiskarna blev bättre...

Men AI däremot används relativt mycket inom finans om jag fattat det rätt. Det finns en hel del system idag som är inspirerade av AI forskningen men som (tur är) inte kallas för AI system idag. Exempelvis spam-filter som lär sig hur spam ser ut eller system som lär sig hur du använder ditt kreditkort. Om vi med parallella datorer menar stora burkar med många processorer så måste jag nog säga att sånna finns i överflöd idag, fast det är inget man som vanlig användare ser så mycket av. En server med 100-talet processorer är inte direkt nån magi längre och stora kluster med tusentals processorer är vardagsmat också.

Det finns ju en hel värld där ute som gemene man inte ser. Stora serverhallar med maskiner som varken är PC eller Mac och hanterar i stort sett all affärsdata för företag och myndigheter. Exempelvis har den något spännande namnsatta BlueGene/L 131072 processorer och 32768 GB minne.

Användarvisningsbild
Belisarius
Medlem
Inlägg: 5093
Blev medlem: 26 november 2004, 14:43
Ort: Utrikes

Inlägg av Belisarius » 10 november 2006, 12:46

Nu när parallellkopplade processorer kommer ut i konsumentleden i allt högre grad ökar ju prestandan också, fast själva utvecklingen mot snabbare processorer i sig har stannat upp lite efter införandet av 13-mikrometerstekniken.

En PIV med parallella 4,3 GHz-processorer, 4 GB internminne och 2 parallellkopplade übergrafikkort ger en hel del oompf. Inget ovanligt, alla delar är "off the shelf" idag men det kostar ju.

Användarvisningsbild
cocteau
Medlem
Inlägg: 492
Blev medlem: 23 maj 2005, 14:36
Ort: Gävle
Kontakt:

Inlägg av cocteau » 10 november 2006, 15:10

Det är ju också så att man kan köra webbläsare, chatta, emaila och köra Office 2003 (om man nu går på microsoft propaganda och inte kör open office) under windows xp på en 733 MHz P3 med 512 mb ram och ett Geforce 2 grafikkort och en 60 gigs hårddisk. Så om man inte spelar så har gemene man inte behov av nå mer. Det är nog också en anledning att utvecklingen bromsas upp.

Användarvisningsbild
Belisarius
Medlem
Inlägg: 5093
Blev medlem: 26 november 2004, 14:43
Ort: Utrikes

Inlägg av Belisarius » 10 november 2006, 15:35

Bra poäng. Ett sådant system klarar ju också av att spela musik och visa film (även om ett tyngre grafikkort förstås ger bättre bild). Så efterfrågan på high-end prylarna gäller en allt mindre del av användarna.

Användarvisningsbild
marcorc
Medlem
Inlägg: 176
Blev medlem: 27 maj 2004, 14:39
Ort: Göteborg
Kontakt:

Inlägg av marcorc » 12 november 2006, 10:02

Trist nog så har historien visat att även vanliga hemmaanvändare kommer att behöva snabbare och snabbare datorer hela tiden. Systemprogramvaran kommer nog att se till att kräva både snabbare processorer och mycket mer minne framöver än vad vi har i maskinerna idag. Även för såpass enkla saker som att läsa e-post. Vilket är lite bisarrt. Men i "utvecklingens" tecken så passar det bra att trycka in mer och mer i grundsystemen för att man tror att användare vill ha det.

Vad är en PIV?

Användarvisningsbild
predator
Medlem
Inlägg: 3612
Blev medlem: 4 september 2004, 15:22
Ort: Göteborg

Inlägg av predator » 12 november 2006, 12:27

Varför tror du det? En vanlig användare utnjuter ju inte hela datan än då. Så det känns lite onödig eller dumt (brist på bättre ord.) Att göra dom så snabba man avänder ju inte det än då.

Användarvisningsbild
Belisarius
Medlem
Inlägg: 5093
Blev medlem: 26 november 2004, 14:43
Ort: Utrikes

Inlägg av Belisarius » 12 november 2006, 12:44

marcorc skrev:Vad är en PIV?
Slöa fingrar... Pentium 4.

Ressel
Medlem
Inlägg: 660
Blev medlem: 2 januari 2003, 22:45
Ort: göteborg

Inlägg av Ressel » 13 november 2006, 00:21

Angående MHz så är det ju fel att säga att datorkraften inte ökar så mycket längre bara för att klockfrekvensen på CPUn inte ökar lika mycket. MHz =! Datorkraft. Mycket andra faktorer spelar in, Cache, (L1 L2 e.t.c. Ram-minnen, andra delar av datorn som löser specifika uppgifter som t.ex. GPU.

Användarvisningsbild
marcorc
Medlem
Inlägg: 176
Blev medlem: 27 maj 2004, 14:39
Ort: Göteborg
Kontakt:

Inlägg av marcorc » 14 november 2006, 11:26

Givetvis spelar hela systemets konstruktion roll för prestandan. Men att öka frekvensen har varit det lätta sättet att få saker och ting att gå snabbare. När man nu inte verkar kunna göra det så krävs det plötsligt mycket mer avancerade och komplexa lösningar. Många av lösningarna kräver också specialskriven programvara, exempelvis multi-core arkitekturerna. Att lära alla världens programmerare att programmera dessa nya processorer är inget som görs över en natt. Plus att alla typer av program kan inte heller dra nytta av multipla kärnor.

Att det skulle vara dumt att bygga snabbare datorer kan jag inte riktigt hålla med om. Tror IT historien (den väldigt korta) har visat att snabbare datorer kommer alltid till användning på ett eller annat sätt genom mer och mer komplex programvara.

Frogman
Medlem
Inlägg: 1166
Blev medlem: 15 februari 2003, 22:27
Ort: Sverige

Inlägg av Frogman » 22 december 2006, 21:01

Tja, vi har ju Wii konsoller till salu, då man kan leka fäktare i datorspel utan kabel och genom att luta kontrollen http://en.wikipedia.org/wiki/Wii
och Segway personliga
plattformar, då man styr genom att luta sig, http://en.wikipedia.org/wiki/Segway
Så visst går utvecklingen framåt...

Otto Gaz
Medlem
Inlägg: 161
Blev medlem: 16 augusti 2005, 08:34
Ort: Sverige

Inlägg av Otto Gaz » 7 januari 2007, 13:48

Hexmaster skrev:Några "häftiga" tekniker som inte levererat:
- Parallella datorer
Paralllelldatorer är absolut en teknik som levererat. Inom teknisk beräkning har tekniken varit kommersiellt gångbar sedan 80-talet. I början använde man vektorteknik, sedan har denna ersatts av multiprocessorer med delat minne (SMP) och/eller distribuerat minne (kluster).

Jag kan inte komma på något större utvecklingsprojekt inom läkemedel, fordon, bioteknik eller flygindustrin som inte använt parallelldatorer under de senaste 10 åren.

Ett mer vardagligt exempel är Google som också använder parallelldatorer, fast i en "shared nothing" modell.

/Otto

Otto Gaz
Medlem
Inlägg: 161
Blev medlem: 16 augusti 2005, 08:34
Ort: Sverige

Inlägg av Otto Gaz » 7 januari 2007, 13:57

Ressel skrev:Angående MHz så är det ju fel att säga att datorkraften inte ökar så mycket längre bara för att klockfrekvensen på CPUn inte ökar lika mycket. MHz =! Datorkraft. Mycket andra faktorer spelar in, Cache, (L1 L2 e.t.c. Ram-minnen, andra delar av datorn som löser specifika uppgifter som t.ex. GPU.

Det intressanta måttet är antalet beräkningar per tidsenhet på det aktuella problemet. Olika processorer är olika effektiva i det avséendet och därför kan en processor med lägre klockfrekvens ge högre prestanda än en som är högre klockad.

Det största problemet i dagens datorer är att hålla processorn i arbete, dvs se till att man inte behöver vänta på data som befinner sig långt bort i minneshierarkin, eller rent av på disk.
Så precis som du skriver är storlek och åtkomsttid på cache en viktig prestandafaktor.

/Otto

skogsfrisk
Ny medlem
Inlägg: 12
Blev medlem: 24 februari 2007, 00:49
Ort: Uppsala

Inlägg av skogsfrisk » 25 februari 2007, 01:25

Jo, MHz-racet har väl avstannat lite de senaste åren, men jag antar att ni då syftar på Moores Lag, men grejen är att han sa att processorerna kommer att ha fler transistorer varje år, och det har inte avstannat, då 60% av en processor nu används till stora cache-minnen, och att multipla kärnor också tar sin plats, även om de har samma frekvens så tar de ju upp dubbel yta. Men MHz-racet har inte avstannat på långa vägar, bara här om veckan visade Intel upp en processor som passerade THz-gränsen!

Att datorerna får fler och fler användningsområden är också ett faktum, det dröjer inte länge innan alla dokument och räkningar flyttar in i datorn, snart kommer TV också, och även datorspel skulle jag tro.

Det som bromsar utvecklingen just nu är det stora bredbandsbehovet. När trådlösa tekniker som turbo-3G och 4G kommer i var mans hand och när hastigheten på bredbandet till datorn i hemmet ökar dramatiskt kommer vårt levnadsätt förändras ganska mycket igen, skulle jag tro.

Ett annat område som kommer bli allt viktigare är Data Mining, dvs att plocka ut viktiga data ur enorma datormängder. En sökmotor som Google har enorma datamängder som ska bearbetas. Detsamma gäller för myndigheter som övervakar trafiken på Internet, t.ex. om polisen skulle vilja söka på en händelse några veckor tillbaka så skulle det ta en enorm tid då datamängden är extremt stor, det kommer då bli viktigt för myndigheten att bara lagra sånt som är viktigt. Detsamma gäller för kameraövervakning i Tunnelbanesystem mm, där har man använt AI för att bara spara såna sekvenser där folk beteer sig onormalt osv.

Det var bara några spekulationer från mig som student ;)

Shompola
Medlem
Inlägg: 48
Blev medlem: 2 februari 2005, 05:00
Ort: Uppsala

Inlägg av Shompola » 26 februari 2007, 23:32

Den största flaskhalsen fortfarande är dessvärre minneshastigheten (åtkomst-tid i synnerhet). Store och fetch/prefetch är där processorerna generellt spenderar mest tid i relativt sett. Man har försökt att lösa detta på ett nytt sätt med så kallade local-memory, d.v.s. en liten mängd minne som varje processor har tillgänglig åt sig själv enbart, ingen annan processor kan se eller komma åt din lilla snabba minne. Local-memory fungerar tillsammans med cache (om det finns någon) och primär-minnet. Local-memory (Den är inkapslad i processorn precis som L1 cache och L2 cache) sitter efter L1, sen kommer L2 cache och sist primär-minnet i denna hierarchy. Local-memory är mycket snabb, många gånger snabbare än konventionella primär-minnet. Synd bara att man måste skriva om alla sina program för att kunna utnyttja denna teknik. Och inte nog med det, än så länge finns det inte kompilatorer som kan hjälpa dig med detta per automatik. Man får göra allt för hand. Det fina med cache jämfört med local-memory är ju annars att programmeraren inte behöver nödvändigtvis tänka så mycket om cache-minnet och att mera cache generellt betyder bättre prestanda även om man inte kompilerar om programvaran. Mer local-memory betyder inte bättre prestanda om man inte skriver/kompilerar om programmet.

Användarvisningsbild
marcorc
Medlem
Inlägg: 176
Blev medlem: 27 maj 2004, 14:39
Ort: Göteborg
Kontakt:

Inlägg av marcorc » 27 februari 2007, 08:30

Största problemet alla kategorier för utvecklingen är vi utvecklare. Hårdvarukillarna kan bygga extremt exotiska lösningar som vi sen inte förstår oss på hur man utvecklar effektiva program för. Sonys Playstation 3 är ett bra exempel på det. I teorin väldigt kraftfull, men det kommer ta låååång tid innan utvecklarna lär sig att bygga effektiva program för den.

Vi (programmerare) har fram tills nu fått prestanda gratis från hårdvarufolket. Det har gjort att ingen direkt tänkt på hur vi skall bygga system på ett effektivt sätt; 'Intel löser det med nästa generation snabbare CPU'. Men som det ser ut nu så är det mer eller mindre slut på det. För att nå högre prestanda med dom processorer vi har idag, och i en nära framtid, så krävs det ett annorlunda tänk från utvecklarna. Tanken är att prestandaökningen skall fås genom att processorn gör flera saker samtidigt. Men i alla år har vi vant oss vid att skriva program som gör endast en sak åt gången. Alla sorters program går heller inte att konstruera om så att dom utnyttjar det faktum att en modern (Multi-Core) CPU är duktig på att göra flera saker samtidigt. Så nu plötsligt kan vi inte lita på att Intel och andra processortillverkare löser problemet åt oss och det kommer att blir problem men framförallt kommer det upplevas som att utvecklingen stannar av lite. Fast i verkligheten är det utvecklare som brottas med problemet med att konstruera en helt ny sorts mjukvara.

Skriv svar