Google presenteert nieuwste AI-model MaMMUT

Google presenteert nieuwste AI-model MaMMUT

Google Research onthult op 4 mei 2023 een revolutionair AI-model: MaMMUT. Dit model kan de manier waarop computers taal en afbeeldingen begrijpen naar een hoger niveau tillen.

MaMMUT kan automatisch bijschriften voor afbeeldingen genereren, antwoorden geven op vragen over video’s en objecten in afbeeldingen vinden en herkennen. Maar wat MaMMUT echt bijzonder maakt, is dat het verschillende taken tegelijkertijd kan uitvoeren, waaronder het lokaliseren van objecten in een afbeelding en het genereren van bijschriften. Dit maakt het model zeer efficiënt en bespaart tijd en rekenkracht.

MaMMUT is getest op verschillende datasets en presteerde beter dan eerdere modellen. Het biedt mogelijkheden om betere chatbots te bouwen en computers menselijke taal beter te laten begrijpen. De onderzoekers hopen dat MaMMUT in de toekomst kan worden ingezet in diverse toepassingen om computers nog slimmer te maken en de interactie tussen mens en machine te verbeteren.

MaMMUT vs. ChatGPT 

Hoewel MaMMUT en ChatGPT beide AI-modellen zijn die taal en afbeeldingen begrijpen, hebben ze elk hun eigen specialiteit. Waar MaMMUT gericht is op multimodale taken, is GPT voornamelijk gericht op taalverwerkingstaken. Het is getraind om menselijke taal te lezen en begrijpen, en kan tekst genereren op basis van een gegeven prompt.

Het verschil in specialiteit betekent dat beide modellen unieke toepassingsgebieden en doelen hebben. MaMMUT kan bijvoorbeeld gebruikt worden om betere chatbots te bouwen en computers te helpen menselijke taal beter te begrijpen. GPT daarentegen kan ingezet worden voor taalverwerkingstaken zoals vertalingen en tekstgeneratie.

Vertrek topman Google

Google’s lancering van het MaMMUT-model komt kort na het vertrek van de topman in AI, Geoffrey Hinton, bij het bedrijf. Hinton heeft onlangs ontslag genomen omdat hij zijn bezorgdheid wil uiten over de gevaren van AI. Hij maakt zich zorgen over de concurrentiestrijd die momenteel gaande is en vreest dat dit kan leiden tot een gebrek aan zorgvuldigheid bij de ontwikkeling van AI-technologie. Hoewel het niet duidelijk is of het vertrek van Hinton rechtstreeks verband houdt met de lancering van het MaMMUT-model, benadrukt het belang van het proactief benaderen van de uitdagingen en risico’s die gepaard gaan met de ontwikkeling en inzet van AI-technologie.

 

Verwachtingen Google Mammut

MaMMUT  kan de manier waarop computers taal en afbeeldingen begrijpen verbeteren en onder andere automatisch bijschriften voor afbeeldingen genereren. Het bijzondere aan het MaMMUT-model is dat het verschillende taken tegelijkertijd kan uitvoeren, zoals het lokaliseren van objecten in een afbeelding en het genereren van bijschriften. Dit kan computers helpen menselijke taal beter te begrijpen en slimmere chatbots te bouwen.

In de toekomst hopen de onderzoekers het model te kunnen gebruiken in verschillende toepassingen om computers slimmer te maken en de interactie tussen mensen en machines te verbeteren. We zullen de mogelijkheden van MaMMUT verder ontdekken en jullie ervan op de hoogte houden.

 

Bronnen

De risico’s van AI: wat als het in verkeerde handen valt?

De risico’s van AI: wat als het in verkeerde handen valt?

Artificial Intelligence (AI) kan leiden tot ernstige gevolgen, vooral als het in verkeerde handen valt. Deep learning systemen worden steeds toegankelijker en de kennis die daarbij komt kijken kan worden gebruikt voor verkeerde doeleinden. Deze ontwikkeling baart AI-experts zoals Hinton grote zorgen. Het voorkomen van misbruik is namelijk bijna onmogelijk. We onderzoeken wie de grootste bedreigingen vormen voor Nederland en of we de risico’s van generatieve AI kunnen beperken.

Risico’s misbruik Deep Learning

Als deep learning systemen worden gebruikt met verkeerde bedoelingen,  kan dit leiden tot een aantal ernstige risico’s. Hieronder noemen we er enkele.

 

  • Deep learning-systemen kunnen worden gebruikt voor kennis die kan worden gebruikt om wapens te ontwikkelen. Denk daarbij aan biowapens, virussen en massavernietigingswapens.
  • Ook autonome wapens, zoals bijvoorbeeld autonome drones, zijn ook een risico van deep learning. Deze wapens kunnen doelen kunnen identificeren en aanvallen zonder tussenkomst van een menselijke operator.
  • De meest geavanceerde cyberaanvallen kunnen worden uitgevoerd met hulp van deep learning. Bijvoorbeeld het hacken van overheidsnetwerken of het stelen van gevoelige informatie.
  • De systemen kunnen ook worden gebruikt om informatie te manipuleren. Denk daarbij aan het creëren van nepnieuws of het manipuleren van sociale media. Dit kan worden gebruikt om publieke opinies te beïnvloeden, verkiezingen te beïnvloeden of om economische of politieke doelen te bereiken.
  • Omdat de systemen kunnen worden gebruikt om massale hoeveelheden persoonlijke gegevens te verzamelen en te analyseren, kan de privacy van individuen in gevaar komen.

Risico’s van AI vanuit andere landen

Er zijn verschillende landen die worden beschouwd als potentiële bedreigingen voor Nederland op het gebied van generatieve AI. Hieronder staan enkele van deze landen:

 

China

In de afgelopen jaren is China hard op weg om een leider te worden op het gebied van AI-technologieën. Het land heeft het miljarden dollars geïnvesteerd in de ontwikkeling van nieuwe technologieën. Deze investeringen hebben geleid tot een indrukwekkende groei van de AI-industrie in China. China heeft daardoor de potentie om een wetenschappelijke voorsprong kan krijgen op andere landen. Daarnaast heeft China een reputatie op het gebied van hacking en cybercriminaliteit. De angst is dat China daarbij AI-technologieën kan gebruiken voor kwaadaardige doeleinden.

 

Rusland

Rusland heeft de afgelopen jaren veel geïnvesteerd in AI-technologieën. Het land heeft een sterke focus op militaire toepassingen van deze technologieën. Ze hebben ook een reputatie op het gebied van cybercriminaliteit en hacken, wat betekent dat het een bedreiging kan vormen voor Nederland op het gebied van AI-beveiliging. Als Rusland meer kennis en informatie heeft over generatieve AI-technologieën, kan het een wetenschappelijke voorsprong krijgen op dit gebied, wat geen goed nieuws voor Nederland betekent. 

 

Iran en Noord-Korea

Iran en Noord-Korea zijn beide landen die grote interesse hebben getoond in de ontwikkeling van AI-technologieën, voornamelijk voor militaire doeleinden. Ze staan bekend om hun nucleaire programma’s en hebben in het verleden sancties opgelegd gekregen vanwege het ontwikkelen van massavernietigingswapens. Er is daarom bezorgdheid dat deze landen AI-technologieën kunnen gebruiken om hun militaire capaciteit te vergroten. Daarmee kunnen ze de internationale veiligheid en stabiliteit in gevaar brengen. Naast de militaire toepassingen van AI-technologieën, kunnen Iran en Noord-Korea ook een bedreiging vormen voor Nederland en andere landen op het gebied van cybercriminaliteit en hacken. 

Risico’s van AI vanuit groeperingen en criminele organisaties

Bepaalde groeperingen vormen voor Nederland ook een groter risico met de komst van gereatieve AI. Een aantal voorbeelden van georganiseerde groeperingen en criminele organisaties die mogelijk een bedreiging kunnen vormen voor Nederland op het gebied van generatieve AI zijn:

 

  • Terroristische organisaties zoals Al-Qaida en ISIS, die bekend staan om hun gewelddadige aanvallen op de samenleving en hun vermogen om geavanceerde technologieën te gebruiken voor kwaadaardige doeleinden.
  • Georganiseerde misdaadgroepen die zich bezighouden met illegale activiteiten zoals drugshandel, mensenhandel en cybercriminaliteit. Deze groepen kunnen mogelijk gebruikmaken van generatieve AI om hun activiteiten te verfijnen en hun winst te vergroten.
  • Hacktivisten en andere groeperingen die zich richten op het uitvoeren van cyberaanvallen en het verspreiden van desinformatie. Deze groepen kunnen mogelijk gebruikmaken van generatieve AI om hun aanvallen te verbeteren en hun propaganda te verspreiden.

Risico’s van AI vanuit individuen

Ook de gewone mens krijgt toegang tot meer kennis en informatie dan ooit tevoren. Door deze technologieën is het namelijk mogelijk dat individuen in hun eentje, in een kelder of achterkamertje, aanzienlijke schade kunnen aanrichten. Dit komt doordat de ontwikkeling van AI-technologieën het mogelijk maakt om geavanceerde wapens te ontwikkelen en informatie te manipuleren op een schaal die voorheen niet mogelijk was. Met behulp van AI-technologieën kunnen individuen met slechte bedoelingen bijvoorbeeld biologische wapens ontwikkelen, virussen creëren, cyberaanvallen uitvoeren of andere illegale en kwaadaardige doeleinden bereiken.

Het kan leiden tot een situatie waarin individuen, zonder de noodzakelijke regulering en controle, toegang hebben tot geavanceerde technologieën die potentieel gevaarlijk zijn. Dit kan leiden tot schade aan mensenlevens, verstoring van de economie en schade aan de samenleving als geheel.

Zijn de risico’s te beperken?

Door de opkomst van deep learning systemen en de groeiende toegankelijkheid van kennis en informatie wordt het steeds gemakkelijker om met slechte bedoelingen aanzienlijke schade aan te richten. Deze ontwikkeling is zorgwekkend en een van de grootste zorgen van AI-experts zoals Hinton, die onlangs zijn vertrek bij Google heeft aangekondigd.

Hinton geeft aan dat het voorkomen van misbruik van AI-technologieën bijna onmogelijk is, omdat het te gemakkelijk is voor individuen om deze technologieën te gebruiken voor kwaadaardige doeleinden. Hij pleit voor het ontwikkelen van AI-systemen die ethisch verantwoord zijn en voor een betere regulering van het gebruik van deze technologieën.

 

Het beperken van de risico’s is dus geen eenvoudige zaak. Door het maken van goede afspraken en het reguleren van deze technologieën kan de kans op catastrofale problemen worden beperkt. Het is daarom van groot belang dat regeringen en de industrie samenwerken om de ontwikkeling en het gebruik van generatieve AI te reguleren en controleren.

Bronnen

Moet Google zich zorgen maken na vertrek Hinton?

Moet Google zich zorgen maken na vertrek Hinton?

Vertrek Hinton bij Google- Onlangs heeft Geoffrey Hinton, een bekende AI-pionier en ex-topman van Google, ontslag genomen bij Google. De reden hiervoor is dat hij openlijk wil kunnen praten over de gevaren van AI, zonder rekening te houden met de impact op Google. Dit nieuws heeft bij velen de vraag opgeworpen of Google zich zorgen moet maken over wat Hinton zal onthullen over AI en de rol van Google hierin.

Vertrek Hinton- Gevolgen voor Google

Geoffrey Hinton was een vooraanstaande onderzoeker en wetenschapper bij Google. Hij was een van de belangrijkste personen achter de ontwikkeling van kunstmatige intelligentie (AI) en hielp Google bij het verbeteren van hun AI-technologieën. Als topfunctionaris bij een bedrijf zoals Google zal Hinton gebonden zijn aan een strikte geheimhoudingsplicht. Hij zal zich aan bepaalde beperkingen moet houden bij het delen van informatie over Google en AI, ook nu hij ontslag heeft genomen.

Als Hinton gevoelige informatie zou delen, kan dat ernstige gevolgen hebben voor Google. Het bedrijf zou bijvoorbeeld kunnen worden blootgesteld aan aanzienlijke reputatieschade en verliezen in de markt. Bovendien kan het openbaar maken van dergelijke informatie een impact hebben op de toekomstige ontwikkeling van AI bij Google.

Moet Google zich zorgen maken na vertrek Hinton?

Nu Hinton wil gaan “praten over de risico’s van AI”, kunnen we ervan uitgaan dat hij belangrijke informatie bespreekbaar wil maken. Het risico van openbaarmaking van informatie kan daardoor niet volledig worden uitgesloten. Het is mogelijk dat Hiton in zijn waarschuwing straks toch gevoelige informatie naar buiten zal brengen. Is het denkbaar dat voor hem de ernst van de risico’s van AI de plicht tot geheimhouding zijn overstegen?

In een eerder interview met Hinton benadrukte hij de noodzaak van openheid over de ontwikkeling van AI-technologieën. “We hebben te maken met de mogelijkheid dat AI op een bepaald moment zichzelf kan verbeteren, en als dat gebeurt, moeten we er zeker van zijn dat het op de juiste manier gebeurt”, zei Hinton. Lees meer over het vertrek van Hinton bij Google

Hoewel het onduidelijk blijft of Google zich zorgen moet maken over wat Hinton zal onthullen over AI, is het duidelijk dat zijn ontslag een belangrijk signaal is dat de discussie over de gevaren van AI in een stroomversnelling brengt. Het is dan ook belangrijk dat bedrijven zoals Google verantwoordelijkheid nemen en zich bewust zijn van de risico’s van AI.

Bronnen

Nepnieuws: De donkere kant van AI

Nepnieuws: De donkere kant van AI

Met de opkomst van kunstmatige intelligentie (AI) en de verspreiding van nepnieuws via sociale media, staan we voor een belangrijke uitdaging. Nepnieuws kan verstrekkende gevolgen hebben voor individuen, gemeenschappen en zelfs hele landen. Wat zijn de concrete risico’s van nepnieuws en wat kunnen we doen om deze gevaren te voorkomen?

Concrete risico’s van nepnieuws

Fake nieuws is een gevaarlijke uitdaging voor onze moderne samenleving en de risico’s zijn talrijk. We bespreken hieronder enkele concrete risico’s van fake nieuws.

 

  • Tijdens verkiezingen kan nepnieuws worden verspreid om de publieke opinie te beïnvloeden en om tegenstanders in diskrediet te brengen. 
  • In de medische sector kan het gebruikt worden om onbewezen of gevaarlijke behandelingen te promoten.
  • Tijdens crises, zoals natuurrampen of terroristische aanslagen, kan fake nieuws gebruikt worden om paniek en angst te zaaien.
  • Fake nieuws kan haat en discriminatie aanwakkeren tegen bepaalde bevolkingsgroepen op basis van religie, etniciteit of seksuele geaardheid.
  • In de financiële wereld kan nepnieuws gebruikt worden om aandelenkoersen te manipuleren en investeerders te misleiden.
  • Tijdens oorlogsvoering kan het gebruikt worden om politieke conflicten te verergeren.
  • In de nasleep van een natuurramp kan fake nieuws leiden tot chaos en paniek, bijvoorbeeld een ongefundeerd bericht dat er giftige stoffen zijn vrijgekomen na een aardbeving kan leiden tot massale evacuatie en bemoeilijkt hulpverlening, met mogelijke extra slachtoffers als gevolg.
  • Nepnieuws kan politieke chaos veroorzaken en verkiezingen beïnvloeden, bijvoorbeeld door een vals nieuwsbericht dat een kandidaat beschuldigt van ernstige misdaden, kunnen zijn of haar kansen om verkozen te worden verminderen.
  • Financieel nepnieuws kan leiden tot instabiliteit en zelfs een economische crisis, bijvoorbeeld door een vals nieuwsbericht dat beweert dat een grote bank failliet gaat, kan leiden tot een bankrun en paniek op de financiële markten.
  • Nepnieuws kan de volksgezondheid in gevaar brengen, bijvoorbeeld een vals nieuwsbericht dat beweert dat bepaalde voedingsmiddelen genezing kunnen bieden voor ernstige ziekten, kan mensen ertoe brengen hun behandeling te stoppen en hun gezondheid in gevaar te brengen.

Gevaren Fake nieuws voorkomen

Wat kunnen we doen om de gevaren te voorkomen? Er zijn verschillende manieren om de gevaren van nepnieuws te verminderen.

 

  • Bewustwording creëren: Het is belangrijk dat mensen zich bewust zijn van de gevaren van nepnieuws en de impact die het kan hebben. Scholen en universiteiten kunnen bijvoorbeeld meer aandacht besteden aan mediawijsheid en kritisch denken.
  • Fact-checking: Fact-checking organisaties kunnen helpen om nepnieuws te identificeren en te corrigeren. Er zijn verschillende fact-checking websites en organisaties die zich richten op het controleren van de juistheid van nieuws.
  • Verantwoordelijke media: Media-organisaties hebben een belangrijke rol in het bestrijden van nepnieuws. Het is belangrijk dat journalisten zorgvuldig onderzoek doen en betrouwbare bronnen gebruiken.
  • Sociale media: Sociale media platforms kunnen hun gebruikers informeren over de betrouwbaarheid van nieuws en desinformatie bestrijden. Ze kunnen bijvoorbeeld nepnieuws-berichten markeren of beperken in de verspreiding ervan.
  • Wetgeving: Overheden kunnen wetgeving ontwikkelen om de verspreiding van nepnieuws te beperken. Bijvoorbeeld door het opleggen van boetes aan media-organisaties die nepnieuws verspreiden of door het verbieden van het gebruik van bots om desinformatie te verspreiden.
  • Digitale geletterdheid: Het bevorderen van digitale geletterdheid kan helpen om mensen te leren hoe ze informatie op het internet kunnen vinden, evalueren en begrijpen. Door mensen te leren hoe ze de betrouwbaarheid van bronnen kunnen beoordelen, kunnen ze zichzelf beschermen tegen desinformatie en nepnieuws.

Hoewel de risico’s van nepnieuws niet te ontkennen zijn, staan we niet volledig machteloos tegenover deze dreiging. Met de juiste tools en strategieën kunnen we de verspreiding van nepnieuws verminderen en de schadelijke effecten ervan beperken. Door gezamenlijk op te treden tegen nepnieuws kunnen we ervoor zorgen dat we beschermd zijn tegen de gevaren van valse informatie.

AI-icoon Geoffrey Hinton verlaat Google – en waarschuwt voor AI

AI-icoon Geoffrey Hinton verlaat Google – en waarschuwt voor AI

Weer een groot alarm vanuit de tech-wereld. Geoffrey Hinton, ook wel de grondlegger van AI genoemd, neemt ontslag bij Google. Dit doet hij om “te praten over de gevaren van AI” Lees verder om te ontdekken waarom Hinton zich zorgen maakt en wat de toekomst van AI volgens hem in petto heeft.

Wie is Geoffrey Hinton

Geoffrey Hinton is een AI-legende die de vooruitgang van kunstmatige intelligentie vergelijkt met cruciale uitvindingen zoals de Industriële Revolutie, elektriciteit en het wiel. Hij is 40 jaar geleden al begonnen met AI, toen het nog als sciencefiction werd beschouwd. Hinton heeft zich ingezet voor het nabootsen van de hersenen- waarbij hij geloofde dat computers zelf vaardigheden moesten kunnen ontwikkelen (zichzelf kunnen coderen en verbeteren). Geoffrey Hinton wordt beschouwd als een van de grondleggers van deep learning en heeft bijgedragen aan de ontwikkeling van vele belangrijke algoritmes en architectuur binnen dit veld.

 

In de afgelopen tien jaar hebben computers deze mogelijkheid ontwikkeld en worden Hinton’s ideeën gebruikt voor verschillende toepassingen. Denk daarbij aan bijvoorbeeld deepfake-foto’s, video’s en audio. Hinton heeft meerdere onderscheidingen ontvangen voor zijn bijdrage aan de ontwikkeling van AI, waaronder de prestigieuze Turing Award in 2019. Het is duidelijk dat Hinton’s bijdrage aan AI de wereld voor altijd zal veranderen.

 

Interview Geoffrey Hinton CBS

Hinton heeft eind maart een uitgebreid interview gegeven bij CBS news, waarin hij ook al sprak over de gevaren van AI. In dat interview uit Hinton zijn zorgen over de mogelijke impact van AI op banen. Ook bespreekt hij de mogelijkheid dat computers zichzelf kunnen verbeteren. Hinton is bezorgd dat AI zichzelf zal overstijgen en onbeheersbaar wordt, iets wat eerder alleen in sciencefiction verhalen voorkwam.

Hij benadrukte het belang van het beheersen van de technologie om te voorkomen dat een handvol bedrijven of overheden een ongekende macht krijgen. Hinton zei: “Ik denk dat het heel redelijk is dat mensen zich nu zorgen maken over deze kwesties.”

 

Bekijk hieronder het interview: 

 

Geoffrey Hinton is een absolute legende op het gebied van AI. Zijn innovatieve ideeën over het nabootsen van de hersenen hebben AI gebracht waar het nu is. Daarom slaat zijn ontslag in als een bom.

Hinton corrigeert vandaag op Twitter de New York Times en maakt duidelijk dat hij niet ontslag neemt om negatief over Google te praten, maar om openlijk te waarschuwen voor de gevaren van AI: “Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google”

Daarbij benadrukt hij dat Google zeer verantwoordelijk heeft gehandeld: “Google has acted very responsibly” staat in zijn tweet. Hoewel Hinton op Twitter benadrukt dat hij geen negatieve uitlatingen over Google zal doen, zetten de woorden “Google has acted” in zijn tweet de deur op een kier voor speculatie. Het is onduidelijk of er iets is veranderd in de relatie tussen Hinton en Google, of dat de woorden simpelweg verkeerd zijn gekozen.

Het blijkt in ieder geval weer dat het van groot belang is dat we ons bewust zijn van de gevaren en dat we ons voorbereiden op wat komen gaat. We volgen Geoffrey Hinton op de voet en zijn zeer benieuwd naar wat hij de komende tijd naar buiten zal brengen.

Bronnen

Interessante Pagina’s