Revolution inden for robotteknologi: Google præsenterer fremtidens humanoide hjælpere!
Google DeepMind annoncerer innovative humanoide robotter udstyret med nye AI-egenskaber. Sikkerhed og effektivitet er i fokus.
Revolution inden for robotteknologi: Google præsenterer fremtidens humanoide hjælpere!
Fremtiden for robotteknologi er ved at gennemgå en revolution! Google har afsløret sin seneste innovation, Gemini Robotics, som har til formål at udstyre humanoide robotter med en række evner. Ifølge et Google-blogindlæg kan AI, der er udviklet i samarbejde med Texas startup Apptronik, lære at udføre komplekse opgaver, såsom at vælge et to-fingret greb til at løfte en kaffekop og beregne bevægelsen for at handle sikkert. Disse fremskridt repræsenterer en væsentlig forbedring inden for robotteknologi, der vil gøre det muligt for maskiner at fungere effektivt i dynamiske miljøer.
Intelligente robotter til hverdagen
Gemini Robotics kombinerer forskellige AI-modeller for at skabe robotter, der kan reagere på stemme- og visuelle instruktioner. Den seneste version, Gemini 2.0, introducerer fysiske handlinger som svar på input, hvilket betyder, at robotterne ikke kun kan reagere på stemmekommandoer, men også implementere dem gennem faktiske handlinger. For eksempel var robotter i demonstrationer i stand til at sortere forskellige genstande såsom frugter i de rigtige beholdere eller endda folde origami, hvilket fremhævede den praktiske brug af disse teknologier. Partnerne, der skal teste denne teknologi, er blandt andet kendte virksomheder som Boston Dynamics og Agile Robots, som f.eks Gizmodo rapporterede.
Når det kommer til sikkerhed, tager Google omfattende foranstaltninger. Virksomheden lægger vægt på, at robotterne er udstyret med sikkerhedsprotokoller, der sikrer sikker interaktion med deres omgivelser. Disse protokoller er vigtige for at undgå kollisioner og belyse handlinger, der er sikre i visse sammenhænge. Google DeepMind arbejder på at forbinde sikkerhedsaspekterne af deres AI-modeller med ASIMOV-datasættet for at vurdere risiciene ved robothandlinger i virkelige scenarier og dermed fremme ansvarlig AI-udvikling, som f.eks. Vienna.at rapporterede.