|
You can find the English translation here (no longer at the end of the email newsletter, apparently that get's cut off for long emails) Leukste nieuws eerst...!Ik ga een boek schrijven! Ik heb gisteren mijn contract getekend om bij De Geus een boek te gaan schrijven. Waarom De Geus? Ik heb een paar uitgevers gesproken, en ze hebben het er allemaal over dat je een goede klik moet hebben de uitgever, maar ja, hoe weet je dat na een gesprek al. Het voelde een beetje als daten! Maar één feitje hielp mij over de streep: Uitgeverij De Geus is opgericht door een echtpaar en hebben sinds hun oprichting in de jaren '80 altijd evenveel vrouwen als mannen uitgegeven. Jammer trouwens dat dat tweede feitje wel, maar dat eerste niet op hun Wikipedia-pagina staat. Dat past natuurlijk naadloos bij mijn visie, en daar was toen—en is nu misschien ook nog wel—lef voor nodig. De werktitel van mijn boek is "Vierkante ogen: hoe informatici naar de wereld kijken" en de bekende thema's die je hier ook iedere week leest komen er zeker in terug: hoe informatica van een breed en interdisciplinair vakgebied langzaam wiskundiger werd, hoe verweven informatica en libertarisme altijd zijn geweest, hoe prat programmeurs gaan op complexiteit, en wat voor soort kennis in informaticacurricula structureel ontbreekt. Nog niet eens zo heel lang geleden dacht ik dat computers beter leren snappen mensen zou wapenen tegen de onzin van Silicon Valley, als mensen zelf zien hoe makkelijk programmeren is, dan zien ze wel in hoe manipulatief hun Instagramfeed is. Maar dat viel dus tegen. Nu denk ik dat ik beter de denkwijze van "computer people" kan uitleggen dan van de computers zelf, omdat ik, als ik er in lezingen over vertel, ik zo vaak hoor dat mensen het na een half uurtje echt snappen. Het inzicht van de hoge, koude, gletsjers, toegepast op de informatica helpt onmiddellijk je begrip, terwijl het toch een hoop tijd kost om een beetje Python te leren. Dat laatste blijft ook een goed idee, als je je echt wilt bevrijden van Silicon Valley moet je meer zelf kunnen, maar omdat dit effectiever kan (ik denk aan een woord of 50.000 wel genoeg te hebben), ga ik dat nu toch eerst doen! DigiD in Amerikaanse handenNou, schreef ik vorige week kort over onderzoek van FTM naar de overname van DigiD, deze week ben ik er zelf volop mee bezig geweest zoals je misschien gezien hebt bij EenVandaag of in de Volkskrant! De overname van Solvenity door het Amerikaanse Kyndryl is namelijk nog niet definitief, dus nu heeft het nog zin om je er druk over te maken. Het is namelijk niet zomaar wat, DigiD wordt inmiddels door heel veel verschillende partijen gebruikt, hetgeen trouwens ook weer tot allerhande nieuwe problemen leidt, omdat het daar niet voor bedoeld was. Als DigiD het het morgen niet meer doet, dan kan ik niet overzien wat er allemaal vastloopt, maar in ieder geval belastingaangiftes, Sociale Verzekeringsbank, gemeentes, en zorgafspraken. Dat lijkt me heel wat chaos geven. En daar ligt dan ook voor mij de grootste zorg, dat Amerika als wij iets doen dat ze niet bevalt, ze DigiD als straf of pressiemiddel plat kunnen leggen. Zoals we ook schrijven in het stuk: Als een deel van onze vitale digitale infrastructuur in Amerikaanse handen wordt gelegd, vergroot dit de kwetsbaarheid van Nederland voor uitval, manipulatie of zelfs chantage.
Zouden we zomaar de software die onze bruggen, sluizen en waterkeringen beheert afstaan, nee toch? Waarom dan voor digitale infrastructuur wel? Een paar jaar terug zou zoiets misschien hebben geklonken als de angsten van een anti-overheidswappie, maar het gebeurt al, bijvoorbeeld bij het Internationaal Strafhof waar Microsoft een mailbox blokkeerde (waarna ze trouwens overstapten naar het Duitse openDesk en ook op universiteiten klinkt deze oproep steeds vaker). Een andere terechte zorg is uiteraard dat de Amerikanen bij onze data kunnen, dat mogen ze namelijk onder hun eigen CLOUD-act, die iedere Amerikaanse burger kan opleggen om data aan de overheid te overhandigen, ook als die data niet eens in Amerika staat. Het artificiële onderscheid dat onze staatssecretaris probeert te maken tussen de software enerzijds (die Nederlands blijft) en het platform waarop deze draait (die dus overgenomen wordt) doet voor de Amerikaanse wet niet ter zake, en door de dreiging van uitzetten ook niet. AI-vertroebelingMooi nieuw woord kwam ik van de week tegen: "AI vertroebeling". Het idee, waar ik zelf natuurlijk ook steeds over schrijf, dat simpelweg door het bestaan van AI, alles gewantrouwd moet worden. Het deed met denken aan een oud stuk uit New York Times, uit oktober 2024 alweer, waarin jongeren bevraagd werden over hun relatie met het nieuws: The news should be the one thing I can trust, but oftentimes it is not. Therefore, I do not look at the news. The news is often fake, and trusting any source is hard these days.
Je ziet hier goed dat jongeren in de basis nieuws echt vertrouwen, of althans weten dat dat zo zou moeten zijn. Dat is ook in lijn met mijn eigen ervaring, mijn leerlingen op school vinden het écht nog wat betekenen als ik in de krant sta of op de ouderwetse lineaire tv ben, zelfs als ze het niet zelf consumeren. Ze zien dat vertrouwen echter, vaak terecht denk ik, niet omgezet in kwaliteitsnieuws. Dus misschien moet traditionele media niet investeren in zijn waar de jongeren zijn zoals TikTok, maar in de plekken waar ze zouden willen en moeten zijn, zoals de krant. De bubbleAfgelopen zomer las ik het boek The Cult of We, dat nog dieper ingaat dan de serie WeCrashed, die ik ook al smullen vond. Wat je ziet in de serie en in het boek is vooral het totale over de top vertrouwen dat zelfs serieuze instanties zoals banken hebben in mensen met een grote bek. Had oprichter Adam Neumann het gewoon gehouden bij een hippe kantoorruimteverhuurder, dan had hij concurrent Regus eenvoudig naar de kroon kunnen steken omdat zijn slimme marketing het idee van kantoorruimte superhip maakte. Knap, op zich om iets saais heel spannend te maken! Maar hij wilde meer: eindeloze groei, en zich kunnen meten met techbedrijven. Het deed me ook denken aan het ongeveer waargebeurde verhaal van Inventing Anna. Had die met het krediet dat ze kreeg iets kleins gedaan, een simpele kunstgalerie starten ofzo, had ze er best iets winstgevends van kunnen maken, maar als je steeds maar meer wilt, knapt het op een bepaald moment. Net als de Beanie Baby bubbel. Als je net als ik heb gesmuld van het WeWork verhaal, dan heb ik slecht nieuws voor je (of goed nieuws, wie weet komt hier over een paar jaar ook een heerlijke docu of seri over!). OpenAI is, aldus de Economist: the WeWork story on steroids
OpenAI moet van alles proberen om relevant te blijven, zo lanceerden ze vorige week ChatGPT Health, omdat mensen chat vaak gebruiken voor gezondheidsadvies, met daarin fikse claims over veiligheid (nadruk van mij) We introduceren ChatGPT Health, een aparte functie die je gezondheidsinformatie en de intelligentie van ChatGPT veilig samenbrengt, zodat je beter geïnformeerd en voorbereid met je gezondheid omgaat.
Wat betekent veilig hier? Dat je data niet gedeeld wordt, of dat je gegarandeerd veilig advies krijgt? Dat is wel even want anders, en dat laatste kan natuurlijk niet, want ook deze vorm van ChatGOT leidt aan hallucinaties. Maar ja, zo zeggen ze er natuurlijk snel nog even bij: "Het is niet bedoeld voor diagnose of behandeling." Goed, maar waarvoor dan wel? Meester, meester, ik weet het antwoord! Het is bedoeld om te laten zien hoe relevant ze zijn, en hoe ze innovatief nieuwe features uitrollen, precies zoals Neumann op het einde van WeWork benadrukte dat ze geen kantoorruimte verhuurden maar een innovatief tech bedrijf waren. Maar kan bruin dat trekken? The Economist schrijft dat Altman dit jaar nog $100 miljard nodig heeft, omdat hij wel omzet draait, maar dat dat niet (bijna) gratis gaat zoals bij andere techbedrijven, die met een redelijk eenvoudig product enorm konden opschalen: The trouble is that OpenAI’s demand for computing power—by far its biggest cost—has remained tightly coupled to revenue. The company’s computing needs grew from 200 megawatts in 2023 to 1.9 gigawatts in 2025.
En dat is niet het enige probleem. De vraag blijft steeds maar weer of LLMs nu echt iets opleveren... Zelfs bij Salesforce, die eerder nog 4000 mensen ontsloeg zijn ze nu minder enthousiast over AI dan een jaar geleden, zo zegt hoofd marketing Sanjna Parulekar, "after encountering reliability issues that have shaken executive confidence". Misschien was er iemand in een jaarverslag in een kikker veranderd? Ook bij Starbucks passen ze hun AI-positieve strategie aan en gaan ze weer meer medewerkers aannemen: What we're finding is that [removing labor from the stores, with the hope that equipment could offset the removal of the labor] wasn't an accurate assumption with what played out.
Worden er dus "door de opkomst van AI" mensen ontslagen? Ja dat is zeker gebeurt bij Salesforce en bij StarBucks, maar dus niet zozeer door het inzetten van AI, alswel door de belofte ervan. AI lijkt dan, zo lezen we zelfs op nu.nl, eerder een veelgebruikt excuus voor ontslagen dan de directe aanleiding ervan. Het is namelijk zo in deze wereld waarin we leven, ik snap het ook niet al weet ik het wel, dat als je mensen ontslaat, dat dat goed is voor je aandelenkoers. Mijn niet-economisch geschoolde brein zou het logisch vinden dat ontslagen slecht zijn voor de koers, want als je er mensen uit moet gooien, loopt je tent toch niet lekker. Maar de wereld van hyperkapitalisme werkt anders, en als je als eigenaar dus je beurskoers wilt opkrikken moet je mensen ontslaan, en als je daar ook nog eens een fijne, moderne, technologische reden voor hebt, dan houdt "de markt" van je. (Het gaat blijkbaar nog te ver om openlijk te zeggen dat je mensen ontslaat met als hoofddoel de koers op te vijzelen). Nog lezen over de grote bubbel-pop van 2026? MIT Technology Review maakte eind vorig jaar een overzicht van vier grote stukken over de correctie van de hype die eraan gaat komen.  Hilarisch genoeg trouwens, bood the Economist mij een AI samenvatting aan van dit stuk, wat ergens ook weer laat zien dat LLMs (of dat nu die van Altman zijn of die van een ander) de wedstrijd gewonnen hebben, ze zijn al overal, ook als OpenAI failliet zou gaan... SamenwerkenWat betekent het om iets samen te doen? Vorig jaar las ik daarover een fascinerend paper van VU-collega Jeroen de Ridder getiteld: How Many Scientists Does It Take to Have Knowledge? Dat klinkt als het begin van een mop over het indraaien van een peertje, maar dat is echt een serieuze vraag. Traditioneel, zo legt de Ridder uit, hebben we kennis gezien als iets dat zich in precies één hoofd bevindt. Als we een boek lezen van Aristoteles of van De Beauvoir of Descartes, dan kunnen we probleemloos aannemen dat wat daar staat, kennis was die zij hadden, die ze door hun hoofd hadden laten rollen en zelf schreven. Maar wat moet je met een paper zoals deze recente, waar ik ook aan meeschreef? Maar liefst 18 auteurs hielpen aan dit paper, maar welke kennis hebben wij over wat er staat?  En zo heb ik talloze papers op mijn cv staan, papers die ik niet alleen schreef maar met een groep van variërende samenstellingen. Papers van twee auteurs waar ik de promotor was en dus als een soort orakel op afstand af en toe bijstuurde, maar ook papers van twee auteurs waarbij we ik met een andere professor op heel gelijke voet en heel intensief samenwerkte. Je kan aan zo'n paper niet zien wie er welke kennis heeft bijgedragen (al experimenteren sommige tijdschriften tegenwoordig met kleine bijsluitertjes waarop je kan aangeven wat je rol in het paper was). Kan je als groep wel auteur zijn? De Ridder zegt dat er best een case te maken is dat dat niet kan: Groups don’t have minds of their own and, hence, no mental states. Since knowledge either is a mental state itself or at least involves one (to wit, that of belief), it follows immediately that groups cannot literally have knowledge. Case closed.
Maar gelukkig is de Ridder een praktisch mens, en neemt hij met deze argumentatie geen genoegen. Want, de realiteit is nu eenmaal dat de meeste papers die vandaag de dag verschijnen, door meerdere auteurs geschreven zijn, dus moeten we dit proces ook kunnen bestuderen. Zeker als je met mensen uit meerdere vakgebieden werkt, zeg een socioloog en een informaticus die samen conclusies trekken op basis van een dataset, dan heb je beide expertises nodig om de conclusie en het proces waarmee die tot stand kwam, te snappen en te verdedigen. Dat noemt De Ridder 'warrant': If an instance of scientific knowledge is the result of practically or cognitively necessary collaboration, it will not only have been produced by a collective, but the warrant for it will often also be shared by the collective and the collective will be in a position to use this knowledge in a number of functional roles. [nadruk van mij]
En alhoewel mensen AI meestal alleen gebruiken, beïnvloedt het ook hoe mensen samenwerken op allerhande manieren. Want samenwerken is mensenwerk, en dat is niet het simpelweg bij elkaar zetten van een paar losse feitjes. Dit heel leesbare paper van onderzoekers van Harvard en Carnegie Mellon beargumenteert dat als mensen samenwerken, maar ze niet van elkaar geloven dat ze ook echt moeite hebben gestoken in het werk, dat de samenwerking dan toch spaak loopt. Effectief samenwerken leunt namelijk op 'mental proof', bewijs dat je ook echt iets gedaan hebt, of in de woorden van de auteurs: Mental proofs are observable actions taken to certify unobservable facts about the minds who perform them.
Dit is denk ik voor iedereen die op school wel eens een groepsproject heeft gedaan, meteen duidelijk, samenwerken werkt omdat je echt gelooft dat een ander moeite heeft gestoken in het werk. Op basis van de inzet van een ander, pas je ook je eigen inzet aan, en verdeel je taken in een project. Denk jij dat de ander echt zijn best gedaan heeft? Dan ben je misschien wel bereid meer bij te dragen dan als je denkt dat hij er nog wel een tandje bij kan zetten. Maar juist dit, zo zeggen deze wetenschappers, dat werkt alleen als je ook echt moeite moet steken in het werk: When AI makes generating high-quality text (and by extension, "ideas") effortless, it destroys this costly signal.
Als we niet opletten, dan maken we teams die wel sneller werken, maar elkaar minder vertrouwen (zo zegt het paper) en (zo vul ik zelf aan) ook nog eens minder weten over wat hun collega's weten en kunnen, wat het verdelen van werk in de toekomst ook nog eens lastiger maakt. De abstract van dit paper sluit af met een hele mooie, en diepe vraag: How do we signal deep understanding in a world where the output is automated?
Ja, hoe laten we zien dat we werk echt gedaan hebben, in een wereld waarin mensen bestaan die 113 papers in één jaar hebben geschreven? Het is voor mij niet te geloven dat de kennis in ieder van die 113 papers, zoals De Ridder het noemt, door deze auteur warranted is, zelfs als onderdeel van een groep lijkt me dat bij zoveel papers ondoenlijk. Of, zoals Peter Naur zo mooi beschrijft, hij voor ieder van de 113 papers een theorie heeft gevormd. Dat we hem kunnen bellen om: to explain them, to answer queries about them, to argue about them, and so forth.
AI lost dat probleem niet op, sterker nog, het maakt het groter. Want het zorgt ervoor dan mensen nog meer kúnnen publiceren, wat normen verandert waardoor de druk nog groter wordt om meer te gaan publiceren, etcetera, etcetera. Als mensen om je 100 papers schrijven, dan ben jij als individu gek als je het niet ook doet. Het systeem van kennis leidt hier natuurlijk onder, als we steeds meer schrijven maar steeds minder snappen, zei ik ook toen Aob me interviewde deze week. Wiens taalmodel?Schitterend mooi stuk van Marcus Olang dat over chatGPT gaat, maar ook over de invloed van kolonialisme op schrijven, hoe het Engels dat ze leerden in Kenia (en dit geldt natuurlijk ook voor andere plekken waar de Britten zaten) geen levende taal, maar een statische: The English we were taught was not the fluid, evolving language of modern-day London or California, filled with slang and convenient abbreviations. It was the Queen's English, the language of the colonial administrator, the missionary, the headmaster. It was the language of the Bible, of Shakespeare, of the law. It was a tool of power, and we were taught to wield it with precision.
En juist dat soort taal, kaal, niet levend, vreemd formeel, dat is nu de taal van GPT geworden. Vrouwenhaat op internetEen jaar geleden werd ik gevraagd door Volkskrant of ik een stuk wilde schrijven over bias in AI, maar ik zei nee. k wil een stuk schrijven, zei ik, over hoe het internet al meer dan 10 jaar bol staat van georganiseerde vrouwenhaat. Bias in AI, dat kennen we zo onderhand wel, maar hoe het internet en technologie steeds weer gebruikt worden om vrouwen klein te houden, dat is een verhaal dat ertoe doet omdat het verborgen blijft. Het werd dit stuk, bijna een jaar oud dus nu, maar nog even relevant als toen. Ik verwees erin naar het fenomeen Gamergate, een beweging die vrouwen op internet beledigde, doxxte, en bedreigde, maar nauwelijks aandacht kreeg in de media, na mijn stuk hoorde ik van veel mensen dat ze er nog nooit van gehoord hadden. Maar het was, in de profetische woorden van Amerikaanse journalist Kyle Wagner uit 2014, maar een voorbode van wat er op ons af zou komen: a glimpse of how these skirmishes will unfold in the future—all the rhetorical weaponry and siegecraft of an internet comment section brought to bear on our culture, not just at the fringes but at the center. What we're seeing now is a rehearsal, where the mechanisms of a toxic and inhumane politics are being tested and improved.
En zo ging het precies. De verkiezing van Trump lag downstream van deze beweging. Wagner legde trouwens ook de vinger op de zere plek over wie hier blaam voor treft: [Gamergate has] exploited the same basic loophole in the system that generations of social reactionaries have: the press's genuine and deep-seated belief that you gotta hear both sides. Even when not presupposing that all truth lies at a fixed point exactly equidistant between two competing positions, the American press works under the assumption that anyone more respectable than, say, an avowed neo-Nazi is operating in something like good faith.
En waar lazen we dit stuk dat met een glazen bol niet beter geschreven had kunnen worden? De New Yorker? De Atlantic? Nee... op de onbekende sportblog Deadspin. Dus ja, niemand luisterde (geen garantie trouwens dat dat op een ander platform wel was gebeurt hoor), en ook nu weer nemen we de dreiging niet serieus. Want zelfs nu het op X mogelijk is om iedere foto van vrouwen van hun kleding te ontdoen, waaronder foto's van actrice Nell Fisher van 14, is de berichtgeving erover, en de reactie erop, niet in de buurt bij serieus genoeg. "Uitkleedapps", noemt nu.nl ze, in plaats van wat ze zijn, tools waarmee je kinderporno kan maken, alsof het over een Barbie gaat met een plastic foef tussen de spillebeentjes, en niet om seksuele beelden van minderjarigen die met een snelheid van duizenden per uur langskomen. Tsja, het is ook allemaal zo complex, aldus onze demissionaire minister van justitie Van Oosten in dat stuk. Hoe complex precies?
Ah ja, te complex blijkbaar voor onze minister van buitenlandse zaken om niet meer op Twitter [[1]] te posten...! Eerst even kinderporno scrollen voor je kan lezen wat het officiele standpunt van Buitenlandse zaken over Groenland is, het klinkt als een aflevering van Black Mirror maar het is gewoon een random woensdag in 2026. Waarom zulke berichten niet minstens ook crossposten op BlueSky, waar ook een account bestaat? God only knows what David van Weel would do without Twitter, blijkbaar. Ok, dus als overheid niet meer posten op Twitter, dat is niet de oplossing, wat dan wel volgens Van Oosten? Een zorgvuldige afweging, samen met alle betrokken partijen, is noodzakelijk
Alle betrokken partijen?! Dat klinkt als gezellig babbelen met Muskie, toch? Die alle ophef natuurlijk allemaal maar censuur vindt. Of alle uitgeklede vrouwen even op de koffie vragen? Wat staat daar in godsnaam? En het is nu niet zo dat landen niks doen, of niets kunnen doen. Je kan het gewoon blokkeren, zoals Maleisië and Indonesië wel gedaan hebben, en zelfs de recent erg techno-optimistische UK nu overweegt. Of dus minstens er niet meer op posten, dat hoeft echt van niemand Van Weel. Het geeft weer eens goed aan hoe genormaliseerd seksueel geweld tegen vrouwen hier is, en hoe weinig indrukwekkend op mannen dat dit gebeurt, in welke vorm dan ook. Het is ergens ironisch dat dé studie waarvan rechts (zelfs enigszins redelijk rechts) heeft besloten dat het zinloos is, en een teken van het verloederen van echte kennis, gender studies is, terwijl bijna alles wat we nu zien gebeuren—van de bedreigingen van vrouwen op internet, niet alleen via Grok, maar ook bijvoorbeeld met "smart" zonnebrillen, tot de langgekoesterde wens van Peter Thiel op vrouwenstemrecht terug te draaien—beter te snappen is vanuit man-vrouw dynamiek en de geschiedenis van.
[[1]]: Vertik dat ik het ooit X ga noemen! De lezersvraag: Wat vind je van dit stuk?Of eigenlijk was de vraag van Lennart Quispel, over dit stuk, nog wat scherper: Wat moeten we hier nu weer over zeggen? Ik kan het misschien kort houden, want de altijd scherpe Hans Schnitzler kwam al met een fijne repliek. Maar ik ga toch nog even een duit in het zakje doen, en dan begin ik bij het boek van Lode Lauwaert, dat ik door een samenloop van omstandigheden afgelopen herfst las. Ik kan zijn boek echt aan niemand aanraden, en dat begint al bij de titel "Wat niemand je vertelt, zelfs chatGPT niet". Los van dat deze titel taalmodellen weer eens antropomorfiseert—alsof het jou uit vrije wil kennis onthoudt—is het clickbait waar de gemiddelde Facebookspammer zijn vingers bij af kan liggen. Deze ene afvaltip houden zelfs dokters geheim! En die titel wil ik je nog best vergeven, we moeten als wetenschappers toch zorgen dat onze boodschap landt bij een groot publiek, als er dan ook maar een nieuw snippertje kennis in het boek had gestaan. Heeft Lauwaert maandenlang vermomd als conifeer bij Alsman in de tuin gestaan om ons geheimen te vertellen? Heeft hij diepte-interviews gehouden, historische analyze gedaan? Niets van dat alles, het boek is een simpele kopieeroefening van het AGI-is-coming-verhaal uit de Valley, met in plaats van echte gedachten en citaten van filosofen een verzinnen dialoogje tussen twee fictieve mensen tussen wie de lezer moet kiezen. Kijk ik ben geen techniek-filosoof (al zei een bekende techniek-filosoof laatst tegen mij dat ik me inmiddels wel gedraag als techniek-filosoof en toen liep ik twee weken naast mijn schoentjes!) maar ik denk dat we mogen verwachten van Lauwaert dat hij ons in zo'n boek nieuwe perspectieven biedt. Dat hij hypothetiseert niet over hoe verzonnen Thomas en Nadia, of zijn eigen kind als volwassene naar AI in 2026 kijken, maar Plato, Descartes, Weil, Arendt of wie dan ook. In plaats daarvan worden we getrakteerd op Bostrom en MacAskill, die niet alleen geciteerd worden maar ook bedankt, naast Eliezer Yudkowsky [[2]]. Ik zou willen zeggen, dan weet je uit welke wind de hoek waait, weet je dat niet, dan kan je te rade bij dit goede stuk van Laurens Verhagen. Lauwaert is gewoon superpositief over A(G)I, en heel kritisch op tegenstanders zoals Timnit Gebru en Melanie Mitchell, want, zo zegt hij, zij schrijven anderen bedoelingen toe (bijvoorbeeld dat ze met hype-verhalen over AGI de aandacht afleiden van onmiddellijke problemen zoals bias en klimaat afleiden). En je weet helemaal nooit wat een ander denkt! Ja, koekoek, dan kan je nooit iemand iets verwijten. Maar goed, even naar zijn Volkskrant-stuk. Want de belangrijkste kritiek die hij in het stuk uit, is dat we tegenstanders van AI, vooringenomen zijn. Alsof er een hele waaier aan argumenten voor en tegen is, en wij, gemenerds, steeds alleen de "tegen-kaarten" spelen. Moeten die zeurderige geesteswetenschappers niet eens meer zijn als de beta's? Waar techneuten nog spreken over doorbraken en efficiëntiewinst, gaat het bij menswetenschappers al snel over ethische problemen: bias, discriminatie en privacyschending.
Je mag mensen dus blijkbaar nooit gedachtes toeschrijven, maar je zou toch bijna denken dat deze man beter lekker informatica had kunnen gaan doen. Er ontstaat volgens hem zo een eenzijdig debat. Dude, kom je wel eens op Linkedin? De voordelen vliegen je om de oren, als het niet van big tech zelf is, dan is het wel van een leger influencers, goeroes en zelfs AI-magiers (ik verzin dit niet). En alsof het zo leuk is om deze kant van het debat te kiezen, je hebt voortdurend last van gezeur aan je kop. Ik kan geen lezing geven zonder dat er wel mensen zijn die mij vragen om ook over de voordelen te praten, en dan is de schade voor mij nog mild, Gebru en Mitchell verloren hun baan omdat ze zo kritisch zijn. En is Lauwaert dan zelf een neutrale budda in AI-land? Ok, ik doet het mezelf aan maar ik pak toch nog even zijn boek erbij: Mijn oordeel over chatbots en generatieve AI is zéér positief. Ik vind de hype terecht.
Dat mag natuurlijk, je mag fan zijn, je mag het supercool vinden, je mag geloven dat AGI eraan komt, echt. Maar dan ben je toch wel een meelmondje als je dan een ander verwijt eenzijdig te denken. Maar goed, geloof niet mijn kritiek, geloof die van hemzelf (ook uit zijn boek). Er is zoveel dat je met [moderne LLMs] kan doen. Het gaat bovendien veel sneller. En de output is vaak veel beter dan wanneer ik het zelf zou doen. En niet in het minst: ik heb nu nauwelijks zélf iets moeten doen. [dikgedrukte nadruk van mij, accenten origineel]
[[2]]: Het wordt uit de formulering trouwens niet duidelijk of hij deze mensen persoonlijk kent, of dat hij hen alleen als inspiratiebronnen noemt. Slecht nieuws Afgelopen week was de CES, de Consumer Electronics Show, ooit een plek waar coole nieuwe tech gepresenteerd werd, nu voornamelijk... AI-slop. De prijzen voor de slechtste ideeën gingen onder andere naar een lolly die muziek afspeelt als je 'm opeet (?) en een koelkast die open gaat als je "open" zegt. Handig als straks al je apparaten dat hebben en open tegelijk je oven, vaatwasser, vriezer en wasmachine opent. De oceanen worden alsmaar warmer. De onderzoeker die daarover een paper schrijft noemt de situatie "bonkers": "Last year was a bonkers, crazy warming year—that’s the technical term," Abraham joked to me. "The peer-reviewed scientific term is ‘bonkers’."
Hij komt metaforen te kort om uit te leggen hoeveel de oceanen warmer worden, het beste dat hij kan verzinnen is dat de energie die in 2025 in de oceaan verdween gelijk staat aan 12 Hiroshima bommen, of de energie die nodig zou zijn om 2 miljard zwembaden te laten koken, of meer dan 200x alle energie die iedereen op de wereld gebruikt. Het zijn allemaal gigantische maar ook abstracte manieren om uit te leggen dat het echt echt heus, niet best gaat. Zelfs als we nu zouden stoppen met olie en gas, dan blijft deze opwarming nog honderden jaren doorwerken, zo sluit het artikel in Ars Technica af. Google stopt Gemini in Gmail en alle andere apps (en kan dan jouw data gebruiken om meer AI te trainen!) Lees hier hoe je het uitzet! In de EU staat het standaard uit—dus zeg niet dat we niks kunnen doen tegen de giganten—maar, als de smart features uitstaan, kan je geen priority inbox meer gebruiken! Dan wordt Gmail in praktische zin zo goed als onbruikbaar, want dan komen al je random nieuwsbrieven tussen je belangrijke mail te staan. Voor mij 1) een overduidelijke vorm van chantage want ook zonder deze AI hadden we priority inbox al, dus het is er echt niet voor nodig, 2) de laatste druppel om mijn gmail te verlaten. Goed nieuwsNet alleen ouders en ouderen zijn kritisch over social media, ook sommige zoomers begrijpen de problemen maar wat goed. Kunnen we niet beter lezen dan scrollen? Ja, zegt dit onderbouwde stuk in Metro (ik wist niet dat ze nog bestonden, trouwens). Lezen zorgt ervoor dat mensen zich meer verbonden voelen met anderen. Gek maar waar, denk ik, sociale media zijn misschien wel heel veel minder sociaal dan alleen een mooi verhaal lezen! Het internet is dood? Misschien, maar er zijn ook nog te gekke plekken, zoals deze website die cassettebandjes digitaliseert die je ze stuurt. Events, voor in de agendaGeniet van je boterham, en misschien nog even van dit doldwaze en gelukkig goed aflopende avontuur van een bobsleeër die alleen in een viermansbob eindigt!
|