De ontwikkeling van Artificiële Intelligentie moet gepauzeerd worden

Ik ben absoluut voorstander om dat te bevriezen. Eén van de mensen die die brief ondertekenden is Elon Musk, die al eerder heeft aangegeven dat er heel wat verontrustende dingen gebeuren met AI. Er zijn ook heel wat mensen die actief zijn in de sector die dit hebben ondertekend.

“Recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control,” the letter says.

Als dit klopt, moet je die evolutie bevriezen. We hebben deze wereld al voldoende verkloot.

“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities,”

 
Het probleem is dat AI een waarde kan toevoegen maar ook ontnemen.
Het doet me wat denken aan de automatisatie. E.g. Een werknemer die een auto bouwt wordt op termijn vervangen door een robot. De werknemer heeft geen inkomen meer maar de autobouwer kan zijn auto goedkoper verkopen. De koper heeft dan meer koopkracht en kan deze dan ergens anders gaan besteden. Grof gezegd, de een zijn dood is de ander zijn brood en economisch is hier zeker een groei mogelijk. De automatisatie bedreigt vooral de jobs die bestaan uit handelingen (orderpicker, autobouwer,...) maar nu kan AI nog eens de jobs opslorpen waarvoor denkwerk nodig is. Het aantal bedreigde jobs stijgt wel exponentieel. We moeten gewoon bewaken dat er nog genoeg inkomsten mogelijk zijn voor werknemers om de economie te laten draaien. Akkoord je kan de werkgevers belasten en de welvaart 'herverdelen' maar dan gaan die gewoon ergens anders hun bedrijfje opzetten.
Je vat het mooi samen. AI is het probleem niet. Verdeling wel. Automatisering bedreigt specifieke jobs. Correct. Maar het zorgt ook voor een grotere welvaart in zijn totaliteit. Daarmee is het ook geen kwestie van werkgevers belasten. Dat is weer arbeid. We moeten welvaart verdelen. Niet jobs.

Ik ben absoluut voorstander om dat te bevriezen. Eén van de mensen die die brief ondertekenden is Elon Musk, die al eerder heeft aangegeven dat er heel wat verontrustende dingen gebeuren met AI. Er zijn ook heel wat mensen die actief zijn in de sector die dit hebben ondertekend.

“Recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control,” the letter says.

Als dit klopt, moet je die evolutie bevriezen. We hebben deze wereld al voldoende verkloot.

En nogmaals : Met welke reden moet je dat bevriezen? Wat is het doel van het bevriezen? Wat wil je hiermee bereiken? Ik zie nog altijd geen probleemdefinitie.
 
En nogmaals : Met welke reden moet je dat bevriezen? Wat is het doel van het bevriezen? Wat wil je hiermee bereiken? Ik zie nog altijd geen probleemdefinitie.
Lees dan het charter eens zou ik zo zeggen.
Mensen die er zelf aan werken zeggen dat er een risico is.
 
Het gaat hier in deze topic er over. Leg het dan uit. Er is nog altijd geen risico benoemd in deze topic.
Als ik zo eens diagonaal lees de eerste pagina.... Lijken mij toch allemaal zaken waar mensen wakker van liggen en dat mogelijks risicovol kunnen zijn en dusdanig even beter onder de loep genomen dienen te worden.
De bullshit jobs en mensen die tegen hun zin moeten werken met AI lijkt me ook een recept voor de geestelijke gezondheid van de werknemers.
Beroepsfierheid, een mentale uitdaging,...
(ethische) kwesties

Stel je voor wat je met AI tools zou kunnen doen op vlak van hacken.

controle over hebben.

Het is vandaag reeds duidelijk dat we niet in staat zijn om verantwoord om te gaan met andere vormen van intelligentie, zoals dieren.

De economische implicaties mogen ook niet geminimaliseerd worden.

op een punt gaan komen waarbij het niet meer zo onschuldig kan worden,

Veel jobs gaan obsolete worden door AI

Ik kan me trouwens niet inbeelden wat een drama dit voor scholen moet zijn.

we creëren wel wat andere bullshit jobs (voor mensen)

Op Reddit stond vorige week een post van een 3D artist die verplicht Midjourney moet gebruiken. Tegen zijn goesting maar werk dat vroeger enkele weken duurde raakt nu klaar in twee tot drie dagen (en zou zelfs van betere kwaliteit zijn).
 
Als ik zo eens diagonaal lees de eerste pagina.... Lijken mij toch allemaal zaken waar mensen wakker van liggen en dat mogelijks risicovol kunnen zijn en dusdanig even beter onder de loep genomen dienen te worden.
De bullshit jobs en mensen die tegen hun zin moeten werken met AI lijkt me ook een recept voor de geestelijke gezondheid van de werknemers.
Beroepsfierheid, een mentale uitdaging,...
Wel wat serieus blijven he..

Ik vraag je om inhoudelijk te reageren. Met nieuwe zaken. Niet gewoon te herhalen wat er al stond. Dat is geen antwoord op de vraag die ik stel. Wat hypotheses van mensen is niet persé werkelijkheid. Ook dat van bullshit jobs, dat is iets wat jij aanhaalt he. die moeten niet van mij.

'Ik lig er wakker van". Er zijn mensen die van vanalles wakker liggen, zullen we maar met alles stoppen. Terug naar de oertijd.


Ik vraag naar de concrete realistische risico's waarom we dit zouden moeten pauzeren. Niet naar verzinsels uit een sci-fi film.
 
Wel wat serieus blijven he..

Ik vraag je om inhoudelijk te reageren. Met nieuwe zaken. Niet gewoon te herhalen wat er al stond. Dat is geen antwoord op de vraag die ik stel. Wat hypotheses van mensen is niet persé werkelijkheid.

'Ik lig er wakker van". Er zijn mensen die van vanalles wakker liggen, zullen we maar met alles stoppen. Terug naar de oertijd.
Uw letterlijke vraag was 'Er is nog altijd geen risico benoemd in deze topic' ? ma bon....
We staan aan de vooravond van AI. Uiteraard kunnen mensen momenteel enkel maar hypotheses geven en hun bezorgdheden uitdrukken. Dat is toch beter dan Yologewijs overal AI te gaan implementeren en de mogelijkse problematieken achteraf proberen op te lossen?
 
Uw letterlijke vraag was 'Er is nog altijd geen risico benoemd in deze topic' ? ma bon....
We staan aan de vooravond van AI. Uiteraard kunnen mensen momenteel enkel maar hypotheses geven en hun bezorgdheden uitdrukken. Dat is toch beter dan Yologewijs overal AI te gaan implementeren en de mogelijkse problematieken achteraf proberen op te lossen?
Als reactie hierop he :
Met welke reden moet je dat bevriezen? Wat is het doel van het bevriezen? Wat wil je hiermee bereiken? Ik zie nog altijd geen probleemdefinitie.
Niemand kan hier op antwoorden.

Ik zeg nergens dat we niet bezorgd moeten zijn. Of dat we risico's moeten negeren. Maar benoem dan de risico's. De zaken die jij quote zijn voor 95% geen risico's maar bezorgdheden. Dus ik vraag wat er achter zit, maar niemand kan daar op antwoorden.
Dat het voor bepaalde jobs een disruptie zal zijn, correct. Dat is echter zo met elke stap vooruit. Bij deze is het ingrijpender. Daar zullen we ons aan moeten aanpassen. Maar hoe zal een paar maanden wachten dan iets oplossen? Niets. Nada. Vandaar de vraag : Wat is het probleem/risico. En hoe verhelp je dit dan door het even uit te stellen? Niet. Dus we hebben een probleem en reiken een oplossing aan die het probleem niet verhelpt. Wat is het nu daarvan?

Als het "out-of-control" kan zijn, dan vraag ik me af : Wat is out-of-control. Wat is daar het risico van? Bij een kerncentrale bv. zie ik een heel duidelijk benoemd risico. (Kijk tsjernobyl) Maar als een pc out of control is, dan zet ik die uit. Wat is het risico. Pas op, ik zeg niet dat er geen mogelijk risico is, maar ik vraag me af wat het REALISTISCH "worst case scenario" is. Dit is nog nergens benoemd.

We leggen toch ook niet omwille van wat hypotheses de volledige samenleving plat? Ik wil gewoon dat mensen wat ingaan op de dingen de ze opwerpen. Ik zeg ook nergens dat we geen onderzoek/risico-analyse/beleid/... moeten hebben. Laat het gewoon doordacht zijn.


Overigens ook zoals Ugar reeds quote :
“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities,”

Dit zeker niet uit het oog verliezen. Er wordt in feite niet gezegd om het gewoon stop te zetten. AI komt er. De huidige voorbeelden van bv. die artiest of jobverlies, hebben niets te maken met hetgeen hier gequote wordt.
 
Laatst bewerkt:
Is het probleem ook niet dat we het mogelijks wel deels in de Westerse wereld kunnen bevriezen, want sommige bedrijven/overheden zullen hier off the record toch mee doorgaan, maar dat het in andere delen van de wereld wél verder zal ontwikkeld worden?

Bevriezen klinkt geruststellend, maar is in de praktijk niet haalbaar.

Mijn mening: Dan liever verdere ontwikkeling en supervisie in het Westen dan de kip met gouden eieren door andere mogendheden laten ontwikkelen.
 
Bedenk u ook dat AI zoals het nu bestaat helemaal niet intelligent is. Wat men doet is bijvoorbeeld een robot een banaan laten pellen. Men doet dat door die 1000 bananen te geven, die wat laten prullen, en dan te vertellen welke bananen goed (of tenminste wat in de richting) gepeld zijn. De vooruitgang die je de laatste jaren ziet is omdat met veel meer data invoert in de AI. Dus na die 1000 bananen er nog 100.000 bijgeven. Hoewel die robot dan misschien even goed een banaan kan pellen dan een mens weet die nog altijd niet waarom die een banaan aan het pellen is, hoe hij een appel moet schillen of laat staan hoe het universum ontstaan is.

GPT kan jouw trouwens waarschijnlijk wel vertellen hoe het universum ontstaan is, maar hij weet dat niet. Hij kan gewoon heel goed berekenen dat het juiste antwoord op jouw vraag waarschijnlijk het verhaal van het heelal is. Hij weet ook niet 100% zeker dat dat het juiste antwoord is, het is gewoon het meest waarschijnlijke antwoord omdat ze hem miljoenen vragen gegeven hebben met bijhorende antwoorden. En na de analyse van die miljoenen vragen kent hij een waarschijnlijkheidsscore toe aan de mogelijke antwoorden. Dat is helemaal anders dan hoe een mens redeneert, en het is nog maar de vraag of je dat dan “intelligent” kan noemen, en of ze zelfs dichtbij een AI zijn die je wel intelligent kan noemen.

Ik vind GPT niet intelligent, maar wel indrukwekkend.
 
Ik ben absoluut voorstander om dat te bevriezen. Eén van de mensen die die brief ondertekenden is Elon Musk, die al eerder heeft aangegeven dat er heel wat verontrustende dingen gebeuren met AI. Er zijn ook heel wat mensen die actief zijn in de sector die dit hebben ondertekend.

“Recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control,” the letter says.

Als dit klopt, moet je die evolutie bevriezen. We hebben deze wereld al voldoende verkloot.

“This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities,”

Cynische mening, maar volgens mij is dit puur uit financieel eigenbelang. Elon Musk heeft er belang bij om AI als ongelofelijk krachtig voor te stellen omdat hij wilt doen alsof Tesla's volledig zelfrijdende auto's er bijna zijn, terwijl we er mogelijk nog meer dan een decennium van verwijderd zijn.
 
Cynische mening, maar volgens mij is dit puur uit financieel eigenbelang. Elon Musk heeft er belang bij om AI als ongelofelijk krachtig voor te stellen omdat hij wilt doen alsof Tesla's volledig zelfrijdende auto's er bijna zijn, terwijl we er mogelijk nog meer dan een decennium van verwijderd zijn.
Kan zijn, maar als je ondertussen kijkt naar de lijst met namen zijn er toch veel mensen ongerust. En niet van de minsten...

Uit die open brief:
Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders.
Vooral die eerste vraag lijkt me een risico dat we nu al lopen, nl. het verspreiden van onwaarheden. Straks bepaalt de AI wat de waarheid is (en dat verzint duidelijk een hoop onzin). En wat een tool voor invloedrijke mensen om de waarheid te verdraaien, 'alternative facts' zeg maar.

Ik vind het frappant dat sommigen hier de risico's niet inzien eerlijk gezegd.
@phate_13 je vraagt naar het worst case scenario: ik zou zeggen een AI systeem dat op zijn eentje alle internetservers ter wereld onder controle neemt en plat legt, grote hoeveelheden data verwijdert enz. Stel bv. dat morgen alle gegevens van alle Belgische banken verdwenen zijn doordat een AI uitgewerkt heeft hoe dat kan gedaan worden. 'Chaos' lijkt me dan een understatement.
Nog erger is inderdaad een Terminator verhaal, maar bon, ik betwijfel - als leek welteverstaan - dat dat waarschijnlijk is (m.a.w. AI die zogezegd 'bewust' wordt in de zin dat het doet wat het 'wil' of wat het logisch vindt). Misschien is het dan bv. logisch voor de AI om zoveel mogelijk computers te controleren om de eigen processing power te verhogen, ik zeg maar wat, en dan liggen al onze systemen - die onmisbaar zijn tegenwoordig - plots plat.

Men ziet gewoon de enorme kracht van die technologie, en wil dat analyseren zodat we er voorzichtig mee omgaan. Enige risico van een pauze van een half jaar is dat men idd in China ofzo wel verder zal doen...

Cyberwarfare komt ongetwijfeld in een volgend stadium terecht met AI tools.
 
  • Leuk
Waarderingen: ugar
Kan zijn, maar als je ondertussen kijkt naar de lijst met namen zijn er toch veel mensen ongerust. En niet van de minsten...

Uit die open brief:

Vooral die eerste vraag lijkt me een risico dat we nu al lopen, nl. het verspreiden van onwaarheden. Straks bepaalt de AI wat de waarheid is (en dat verzint duidelijk een hoop onzin). En wat een tool voor invloedrijke mensen om de waarheid te verdraaien, 'alternative facts' zeg maar.
Hoe manifesteert zich dat? Als je nu op facebook kijkt is 90% al quatsch. Het blijft belangrijk om voor alles kritisch om te gaan met informatie die je aangereikt wordt. Is dat zoveel anders met AI? Hoe gaan deze bepalen wat de waarheid is? Uiteindelijk moet je toch altijd de bron kunnen controleren als iets belangrijk is.
Ik vind het frappant dat sommigen hier de risico's niet inzien eerlijk gezegd.
@phate_13 je vraagt naar het worst case scenario: ik zou zeggen een AI systeem dat op zijn eentje alle internetservers ter wereld onder controle neemt en plat legt, grote hoeveelheden data verwijdert enz. Stel bv. dat morgen alle gegevens van alle Belgische banken verdwenen zijn doordat een AI uitgewerkt heeft hoe dat kan gedaan worden. 'Chaos' lijkt me dan een understatement.
Absoluut. Indien dit mogelijk is. Maar dat is dus ook deel van mijn vraag. Lopen we effectief dat risico. Wat is de "macht" van een AI op dat soort zaken?
Nog erger is inderdaad een Terminator verhaal, maar bon, ik betwijfel - als leek welteverstaan - dat dat waarschijnlijk is (m.a.w. AI die zogezegd 'bewust' wordt in de zin dat het doet wat het 'wil' of wat het logisch vindt). Misschien is het dan bv. logisch voor de AI om zoveel mogelijk computers te controleren om de eigen processing power te verhogen, ik zeg maar wat, en dan liggen al onze systemen - die onmisbaar zijn tegenwoordig - plots plat.

Men ziet gewoon de enorme kracht van die technologie, en wil dat analyseren zodat we er voorzichtig mee omgaan. Enige risico van een pauze van een half jaar is dat men idd in China ofzo wel verder zal doen...

Cyberwarfare komt ongetwijfeld in een volgend stadium terecht met AI tools.
Ik wil vooral er naartoe "Wat zijn de concrete risico's." "Hoe kunnen we deze beperken/vermijden." Gewoon een half jaar stoppen (wat inderdaad niet overal gaat gebeuren), hoe helpt dat?

Alsook : Waarvoor is een nieuwe analyse nodig? En dan bedoel ik, algemeen, zoals hierboven vaak gevraagd wordt. Want qua jobs ed. het komt. Punt. Deze analyses zijn sowieso al gemaakt. We zitten in een wereld vol data. Alles is beschikbaar. Wat er moet gebeuren als je hier stappen in wilt zetten is afspraken maken. Maar then again : Wie maakt deze afspraken? Wie dwingt deze af? Als we het aan onze politici moeten overlaten, zeker op wereldniveau, dan denk ik niet dat er veel uit de bus zal komen. Noch qua afspraken, noch qua afdwingen.

Als we acties moeten nemen, laat deze efficiënt en effectief zijn.
 
GPT-4 kan mij nog geen tabelleke geven op een pagina die ik hem letterlijk aanwijs.

Het zal in de nabije toekomst wel meevallen met die AI terminator.
En anders vraag ik hem dat tabelleke nogmaals, en zal hij weerloos het onderspit moeten delven :biglaugh:
 
Ik vind het frappant dat sommigen hier de risico's niet inzien eerlijk gezegd.
<>
- als leek welteverstaan -
Ik vind het eerder frappant dat een leek die blijkbaar totaal geen idee heeft hoe die Machine Learning & Deep Learning modellen werken hier met de meest sci-fi-achtige scenario's afkomt en zich afvraagt hoe sommigen die risico's niet inzien :p

Als je niet enkel de open brief gelezen hebt (die eigenlijk niks zegt) maar ook de bronnen waarnaar ze verwijzen, is het probleem momenteel niet zozeer een technologische of apocalyptische impact maar eerder een sociale. Want de grootste problemen die aangekaart worden is de data waarmee de modellen getraind worden waardoor de resultaten niet altijd "maatschappelijk aanvaardbaar" zijn (maar mogelijks wel een reflectie van de maatschappij sinds die modellen getraind worden met reële data...).

Het enige waar je mogelijks een punt hebt (maar niet in de manier je denkt), is:
Cyberwarfare komt ongetwijfeld in een volgend stadium terecht met AI tools.
Want dit is fantasie:
ik zou zeggen een AI systeem dat op zijn eentje alle internetservers ter wereld onder controle neemt en plat legt, grote hoeveelheden data verwijdert enz. Stel bv. dat morgen alle gegevens van alle Belgische banken verdwenen zijn doordat een AI uitgewerkt heeft hoe dat kan gedaan worden. 'Chaos' lijkt me dan een understatement.
Maar, wat wel kan, is dat een AI-model die getraind is met heel veel brondcode en het resultaat, onder een heel specifieke input een stuk code genereert die voor slechte doeleinden gebruikt kan worden. Maar dat gaat nooit op zichzelf gebeuren, en gaat het de hacker mogelijks enkel wat makkelijker maken want je hebt natuurlijk ook kennis van zowel de code als de programmeertaal nodig om dit te kunnen implementeren; dus die hacker zou die brok code ook perfect zelf kunnen schrijven.
 
<>

Ik vind het eerder frappant dat een leek die blijkbaar totaal geen idee heeft hoe die Machine Learning & Deep Learning modellen werken hier met de meest sci-fi-achtige scenario's afkomt en zich afvraagt hoe sommigen die risico's niet inzien :p

Als je niet enkel de open brief gelezen hebt (die eigenlijk niks zegt) maar ook de bronnen waarnaar ze verwijzen, is het probleem momenteel niet zozeer een technologische of apocalyptische impact maar eerder een sociale. Want de grootste problemen die aangekaart worden is de data waarmee de modellen getraind worden waardoor de resultaten niet altijd "maatschappelijk aanvaardbaar" zijn (maar mogelijks wel een reflectie van de maatschappij sinds die modellen getraind worden met reële data...).

Het enige waar je mogelijks een punt hebt (maar niet in de manier je denkt), is:

Want dit is fantasie:

Maar, wat wel kan, is dat een AI-model die getraind is met heel veel brondcode en het resultaat, onder een heel specifieke input een stuk code genereert die voor slechte doeleinden gebruikt kan worden. Maar dat gaat nooit op zichzelf gebeuren, en gaat het de hacker mogelijks enkel wat makkelijker maken want je hebt natuurlijk ook kennis van zowel de code als de programmeertaal nodig om dit te kunnen implementeren; dus die hacker zou die brok code ook perfect zelf kunnen schrijven.

Ik noem mezelf een leek, maar ik ben vrij zeker dat ik meer afweet van Machine Learning dan de doorsnee BG'er. Ik ben een leek in verhouding met degenen die die open brief ondertekend hebben (een hele rits professoren en onderzoekers in dat domein).

Dus ja, ik vind het frappant dat je dan hier komt roepen dat er geen concrete risico's zijn. Je mag mij gerust kleineren in jouw typische stijl, maar als je jezelf slimmer vindt dan bepaalde namen die die brief ondertekend hebben lijd je toch aan zelfoverschatting.

Tot slot: iedereen denkt hier precies dat het gewoon over ChatGPT gaat, maar dat is niet zo.
 
Dus ja, ik vind het frappant dat je dan hier komt roepen dat er geen concrete risico's zijn. Je mag mij gerust kleineren in jouw typische stijl, maar als je jezelf slimmer vindt dan bepaalde namen die die brief ondertekend hebben lijd je toch aan zelfoverschatting.
Nee, het ging er mij vooral over dat je post over iets totaal anders ging dan de brief.
De brief gaat over het stilleggen van verder onderzoek (van modellen krachtiger dan GPT-4) voor 6maand om richtlijnen op te stellen. Wat iets compleet anders is dan je rogue A.I. verhaal. Want als je dat echt in een reëel risico vindt in het kader van deze brief, impliceer je dus dat A.I. in de komende 6maand zodanig evolueert weg van een model met specifieke training en input naar self-aware. En dan lijdt ik niet aan zelfoverschatting om te zeggen dat in die context dat geen concreet risico is.

Dit is bv. wat je al met relatief eenvoudige machine learning kan doen, laat staan met wat er met o.a. GPT-5 gaat mogelijk zijn:
Wat dus in lijn ligt met mijn voorbeeld i.v.m. hacken. Neem vooral dit mee uit het artikel:
Of course, it does require some expertise. If somebody were to put this together without knowing anything about chemistry, they would ultimately probably generate stuff that was not very useful. And there’s still the next step of having to get those molecules synthesized. Finding a potential drug or potential new toxic molecule is one thing; the next step of synthesis — actually creating a new molecule in the real world — would be another barrier.
En dan mijn eerder punt, dit is compleet iets anders dan je sci-fi fantasie i.v.m. een rogue A.I. die op zijn eentje beslist om een aanval uit te voeren.
 
Het ding is dat veel technologie een exponentieel verhaal is. De afstand tussen de eerste keer van de grond met een bemande vlieger (600BC in China) tot de luchtballon van Montgolfier (1783) is zeer lang. Van Montgolfier tot het zweefvliegtuig van Lilienthal in 1981 is veel korter. Van het zweefvliegtuig tot gemotoriseerde vlucht is amper 8 jaar. En 60 jaar laten stuurden we mensen al buiten de dampkring.

Zo gaat het met AI ook zijn. Nu is dat nog redelijk knullig en schattig, maar ik vrees ook dat we veel sneller op een punt gaan komen waarbij het niet meer zo onschuldig kan worden, alle failsafe mechanismen ten spijt. Als ik me niet vergis heeft ChatGPT ook een ingebouwde ethische filter, en dat werkt dan nog maar puur via data-verwerking, niet echt autonomous learning.
Maar is dat wel zo, dat wetenschap en technologie een exponentiele groei kennen?
De wetenschap heeft zich in de laatste 400 jaar snel ontwikkeld en in die tijd zijn er prachtige dingen gebeurd. Zodra we wetenschappelijke kennis ontdekken en in gebruik nemen is het mogelijk dat er een periode volgt van innovatie die lijkt op exponentiele groei, maar die daarna gewoon stilvalt zodra we op fundamentele fysieke limieten stuiten. Gekeken vanuit een langer perspectief (bvb 10 000 jaar) lijkt er ook exponentiele groei te ontstaan (steentijd -> bronstijd -> ijzertijd etc) , maar die ontwikkeling lijkt me eerder uit het ontstaan van complexere maatschappijen voor te komen dan uit een inherente eigenschap van technologische ontwikkeling an sich.

Het heeft volgens mij enkel zin om naar de laatste 500 jaar te kijken; sinds de renaissance, en de ontwikkeling van de wetenschap en de wetenschappelijke methode; Er zijn een aantal revolutionaire wetenschappelijke periodes geweest, maar die zijn ook weer redelijk stilgevallen. Wij leven nu in een periode waarin ons leven erg hard beinvloed wordt door de ontwikkeling van elektronica. Maar ik denk dat we ons niet door Moore's wet moeten laten misleiden en denken dat exponentiele groei de standaard is.

De laatste Apollo-missie dateert uit 1972: maanmissies waar mensen 400 000km verwijderd zijn van de Aarde. In de 50 jaar daarna is geen enkele mens nog verder dan 500km van het aardoppervlak geweest. De vormfactor van vliegtuigen zien er essentieel onveranderd uit sinds 1950. Als je ziet hoeveel geld en tijd de VS in hun F35-programma staken om een nieuwe straaljager te ontwerpen, valt moeilijk te argumenteren dat hier iets van exponentiele ontwikkeling gaande was. Eerder een hoop graduele wijzingen.

Als je nu eens denkt over de innovatie tijdens ons leven: Wat is er nu eigenlijk beter geworden buiten elektronica? Alle futuristische materialen waar al lang sprake over is als grafeen en nanotubes hebben ons leven niet veranderd. Er zijn wat kleine innovaties geweest op vlak van composietmaterialen. Zonnepanelen zijn gradueel beter geworden. Kernenergie gebruikt nog dezelfde technologie als 40 jaar geleden. Auto's zijn wat zuiniger geworden. Batterijtechnologie is wat beter geworden.

Het lijkt me dat de snelle ontwikkeling van elektronica ons beeld over innovatie zeer sterk vervormd heeft, en zelfs daar zijn we nu tegen fundamentele limieten aan het stuiten.

'Artificiele intelligentie' vandaag de dag is software om patronen te herkennen. Niets meer of minder. Generatieve AI doet niks meer dan tienduizenden keren de vraag stellen 'lijkt dit al meer op een antwoord op de vraag of niet?' en vervolgens een pixel of woord toevoegen.
De ontwikkeling van AI pauzeren is ook nonsensicaal. Het is niet de ontwikkeling van de AI die de laatste jaren voor allerlei toepassingen zorgde, het is de ontwikkeling van de computerkracht om dat mogelijk te maken. De AI zelf ontwikkelen en trainen is eigenlijk simpel mits toegang tot krachtige computers, en nieuwe toepassingen kunnen door kleine organisaties ontwikkeld worden. Dat proberen tegengaan is dweilen met de kraan open.
 
Laatst bewerkt:
Terug
Bovenaan