Black Hat 2023 – AI krijgt veel prijzengeld voor verdedigers

Black Hat 2023 – AI krijgt veel prijzengeld voor verdedigers

Digitale beveiliging

Black Hat is dit jaar groot op het gebied van AI, en met een goede reden

Black Hat 2023: AI krijgt een groot prijzengeld voor de verdedigers

De Black Hat-keynote beschreef een litanie van beveiligingsproblemen die AI probeert op te lossen, met een begeleidende duizelingwekkende reeks van problemen die het onbewust zou kunnen veroorzaken, of eigenlijk, beschreef gewoon een enorm nieuw aanvalsoppervlak gecreëerd door het ding dat de beveiliging moest ‘repareren’ .

Maar als DARPA zijn zin krijgt, dan is het dat ook AI Cyber-uitdaging (AIxCC) zal dit oplossen door enorme bedragen (miljoenen) dollars als prijzengeld te dumpen voor het oplossen van AI-beveiligingsproblemen, die de komende jaren bij DEF CON zullen worden uitgerold. Dat is genoeg voor sommige ambitieuze teams om hun eigen skunkworks van bereidwilligen op te zetten, om zich te concentreren op de kwesties die DARPA, samen met zijn medewerkers uit de industrie, belangrijk vindt.

De top vijf teams op de DEF CON van volgend jaar kunnen 2 miljoen dollar binnenhalen elk in de halve finale – geen klein bedrag voor beginnende hackers – gevolgd door meer dan $ 8 miljoen aan prijzengeld (totaal) als je wint in de finale. Dat is geen grote verandering, ook al woon je niet in de kelder van je moeder.

Kwesties van AI

Een belangrijk probleem van sommige huidige AI (zoals taalmodellen) is dat deze openbaar is. Door zich te vergapen aan zoveel mogelijk internet als het maar kan opslurpen, probeert het een steeds nauwkeurigere tijdsgeest te creëren van alle nuttige dingen, zoals relaties tussen vragen en antwoorden die we mogelijk stellen, het afleiden van de context, het doen van aannames en het proberen te creëren een voorspellingsmodel.

Maar weinig bedrijven willen vertrouwen op een publiek model, dat hun interne gevoelige gegevens zou kunnen gebruiken om het beest te voeden en openbaar te maken. Er bestaat geen enkele vorm van vertrouwen in de besluitvorming over wat grote taalmodellen in de publieke sfeer overbrengen. Bestaat er een betrouwbare redactie van gevoelige informatie, of is er een model dat kan getuigen van de integriteit en veiligheid ervan? Nee.

Hoe zit het met het beschermen van wettelijk beschermde zaken als boeken, afbeeldingen, code, muziek en dergelijke, zodat ze niet pseudo-geassimileerd worden in de gigantische klodder die wordt gebruikt om LLM's op te leiden? Je zou kunnen zeggen dat ze het ding zelf niet echt op ongepaste wijze gebruiken, maar ze gebruiken het zeker om hun producten te trainen voor commercieel succes op de markt. Is dat juist? Juridische idioten hebben dat nog niet helemaal door.

ChatGPT – een teken van wat komen gaat?

Ik heb een sessie bijgewoond over ChatGPT-phishing, wat ook een nieuwe bedreiging belooft te worden, omdat LLM's ook foto's kunnen assimileren, samen met gerelateerde gesprekken en andere gegevens, om de toon en nuance van een individu te synthetiseren en je dan misschien een sluwe e-mail te sturen Het zou moeilijk zijn om als nep te detecteren. Dat lijkt eigenlijk slecht nieuws.

Het goede nieuws is echter dat u, nu de multimodel LLM-functionaliteit binnenkort beschikbaar komt, uw bot naar een Zoom-vergadering kunt sturen om aantekeningen voor u te maken, de intentie te bepalen op basis van de interactie van de deelnemers, de stemming te beoordelen en de inhoud van de documenten op te nemen die worden weergegeven tijdens het scherm. delen en u vertellen waar u waarschijnlijk op zou moeten reageren, en toch lijkt het alsof u erbij was. Dat zou eigenlijk een goede eigenschap kunnen zijn, als het ongelooflijk verleidelijk is.

Maar wat zal het daadwerkelijke eindresultaat zijn van al deze AI LLM-trends? Zal het voor de verbetering van de mensheid zijn, of zal het barsten zoals de... crypto blockchain-bubbel een tijdje geleden gedaan? En zijn we, als er iets anders is, bereid om de echte gevolgen daarvan onder ogen te zien? er kunnen er veel zijn, frontaal?

Gerelateerde lezen: Zal ChatGPT beginnen met het schrijven van killer-malware?

Tijdstempel:

Meer van We leven veiligheid