Google’s nieuwe robot ai delicate origami kan vouwen, ritszakken uit zonder schade

Woensdag, Google Dipmind Verklaring Robots zijn twee nieuwe AI -modellen die zijn ontworpen om te controleren: Gemie Robotics en Gemny Robotics -R. Het bedrijf heeft beweerd dat deze modellen robots in vele soorten en maten effectiever zullen helpen en subtiel begrijpen en interageren dan de vorige systemen met de fysieke wereld, waardoor de manieren van toepassingen zoals Humanoid Robot Assistants.
Het is opmerkelijk dat hoewel de hardware voor robotplatforms met een continue snelheid lijkt te bewegen (nou ja, waarschijnlijk niet altijd), waardoor een capabel AI -model wordt gecreëerd dat deze robots autonoom kan besturen via chique scènes met bescherming en nauwkeurige scène. Het noemen van de kunst “Idol II”, bijvoorbeeld een Munshot -doel van Nvidia, en het blijft een heilige grale die waarschijnlijk robotica kan transformeren in het algemene gebruik van de fysieke wereld.
Naast deze lijn maken de nieuwe modellen van Google de Gemi 2.2 Language Model Foundation, vooral voor robotapplicaties. Gemi heet Google in robotica “Vision-Language-Action” (VLA) vaardigheden, waardoor het visuele gegevens kan verwerken, de opdrachten van de taal kan begrijpen en fysieke activiteit kan genereren. Jemi daarentegen richt zich op “belichaamde argument” met het toegenomen ruimtelijke begrip van robotica-er, waardoor roboticisten het kunnen hechten aan hun bestaande robotbesturingssysteem.
Je kunt bijvoorbeeld een robot zeggen om “bananen in de mand op te halen” met de Gemny Robotics, en het zal een camerabeelde van de scène gebruiken om de banaan te herkennen, met succes een robotarm te begeleiden. Of u kunt zeggen: “Vouw een origami -vos” en zal de kennis van origami gebruiken en hoe u het papier met voorzichtigheid kunt vouwen om het werk uit te voeren.
https://www.youtube.com/watch?v=4mvgnmp3c0
Gemini Robotics: AI naar de fysieke wereld brengen.
In 2023 hebben we de RT -2 van Google behandeld, die een belangrijke stap vormde in de richting van meer algemene robotmogelijkheden met behulp van internetgegevens om de robots te helpen taalopdrachten te begrijpen en zich aan te passen aan nieuwe situaties, vervolgens twee keer de inaugurele handelingen in vergelijking met de voorganger. Twee jaar later lijkt de Gemie -robotica niet alleen te begrijpen wat te doen, maar ook om complexe fysieke manipulaties uit te voeren, RT -2 kan het misschien niet duidelijk aan.
Hoewel RT -2 het al is beperkt tot de reconstructie van de reeds beoefende fysieke bewegingen, toont Gemi -robotica aanzienlijk een verbeterde vaardigheid aan die onmogelijke taken mogelijk maakt, zoals verpakken in origami -plooien en snacks in zip -lock -tassen. Deze verandering van de robots die alleen opdrachten op robots begrijpen die subtiele fysieke functies kunnen uitvoeren, houdt in dat een van de grootste uitdagingen van dipmind -robotica is opgelost: de robot veranderen in een zorgvuldige, precieze beweging in hun “kennis”.
Hoe beter de gemeenschappelijke resultaten
Volgens Dipmind toont het nieuwe Jemi Robotics -systeem de mogelijkheid om de romans uit te voeren die niet specifiek waren opgeleid voor training in vergelijking met het vorige AI -model. In de aankondiging beweert het bedrijf dat de Gemie Robotics beweert dat “een bredere generalisatie van de andere geavanceerde Outlook-Language-Action-modellen meer dan twee keer de prestaties in de benchmark is.” Generalisatie is belangrijk omdat robots die zich kunnen aanpassen aan nieuwe situaties zonder specifieke training voor elke situatie, op een dag kunnen werken in een onverwachte real-world omgeving.
Dit is belangrijk omdat de humanoïde robots momenteel scepsis blijven over hoe effectief ze momenteel zijn of hoe capabel ze zijn. Tesla onthulde zijn Optimus Jane 3 -robot afgelopen oktober en beweerde dat veel van het fysieke werk dat werd geëist, de angst ging door met de authentieke AI -capaciteit van zijn autonome AI toen het bedrijf erkende dat verschillende robots werden gecontroleerd door mensen van een afstand.
Hier probeert Google het echte ding te creëren: een generalistische robothersenen. Met dat doel in gedachten heeft het bedrijf een partnerschap aangekondigd met Austin in Texas Aftronisch “Om de volgende generatie humanoïde robots te maken met Gemi 2.0”. Oorspronkelijk getraind op een Airial Robot -platform Aloha 2Google heeft gemeld dat Gemie Robotics het type robot van onderzoeksgebaseerd op onderzoek kan regelen Franca Robotic Arms In een meer complexe humanoïde systemen zoals Apollo’s Apollo -robot.
https://www.youtube.com/watch?v=x-exzz-kiw
Gemini -robotica: bekwame vaardigheden.
Hoewel de Humanoid Robot-aanpak relatief de nieuwe app is voor AI-modellen van Google (uit deze technologische cyclus op basis van LLM), is het opmerkelijk dat Google rond 2013-2014 verschillende robotica-bedrijven heeft verdiend (inclusief Boston Dynamics, die humanoïde robots produceert). De nieuwe samenwerking met aponicic lijkt een nieuwe benadering van humanoïde robotica te zijn in plaats van de directe continuïteit van de vorige inspanning.
Andere bedrijven zijn Humanoid Robotics -hardware, zoals figuur AI (die in maart 2021 voor zijn humanoïde robots verdiende voor zijn humanoïde robots) en de voormalige Alphabet -assistent Boston Dynamics (die afgelopen april een flexibele nieuwe Atlas -robot introduceerde), maar de robot is geen echte coureur voor een echte bestuurder. Werken eraan heeft hard gewerkt. Op dat vlak bood Gemi ook beperkte toegang tot het programma “Trusted Examiner” in bedrijven zoals Google Boston Dynamics, Robotics en Enchants.
Bescherming en beperkingen
Voor beveiligingsoverwegingen noemt Google een “gelaagde, algemene aanpak” die de transplantatie handhaaft en het overgangsrobotbeveiligingssysteem onderhoudt, zoals de beperkingen van de kracht. Het bedrijf beschrijft een ontwikkeling “Robotconstitutie“De structuur van de” Isaac Asimov Drie wetten van robotica En om een datasaat te onthullen wordt ongelooflijk genoemd “Onvoorstelbaar“Om de onderzoekers te helpen de beveiligingseffecten van robotactiviteiten te evalueren.
Deze nieuwe Asimov -gegevenssasaat presenteert de poging van Google om standaard manieren te maken om robotbeveiliging te evalueren die verder gaan dan fysiek schade. De datasaat is ontworpen om onderzoekers te helpen de AI -modellen te onderzoeken, testen hoe goed de potentiële gevolgen van activiteiten die robots in verschillende situaties kunnen nemen. Volgens de Google-aankondiging zal de datasaat helpen om de impact van de bescherming van robotachtige activiteiten in de echte omstandigheden van de onderzoekers strikt te meten.
Het bedrijf heeft geen deadlines of specifieke commerciële toepassingen aangekondigd voor nieuwe AI -modellen, die in een onderzoeksfase blijven. Wanneer de demo-video’s worden gedeeld terwijl de voortgang in Google AI-aangedreven mogelijkheden weergegeven, laat gecontroleerde onderzoeksomgeving nog steeds open vragen over hoe deze systemen daadwerkelijk zullen presteren in onverwachte real-world instellingen.