BahayBalitaAng mga robot ng AI ay nagtatayo ng mga bagay na on-command

Ang mga robot ng AI ay nagtatayo ng mga bagay na on-command

Ang mga mananaliksik ng MIT ay lumikha ng isang sistema ng pagsasalita-sa-realidad na nagbibigay-daan sa mga gumagamit na magsalita ng isang bagay na umiiral, nagiging natural na wika sa mga disenyo ng 3D at robotic na pagpupulong na gumawa ng mga stool, istante, at higit pa sa ilang minuto.



Ang isang bagong sistema ng MIT ay nagtutulak ng katha patungo sa isang hinaharap kung saan ang mga bagay ay materialize sa demand na walang mga kasanayan sa CAD, walang pag-programming ng robot, at walang mahabang paghihintay sa 3D-print.Sa mga pagsubok, ipinakita ng mga mananaliksik ang isang daloy ng pagsasalita-sa-realidad kung saan masasabi lamang ng isang gumagamit, "Gusto ko ng isang simpleng dumi ng tao," at isang robotic braso ay nagtitipon ng isa sa ilang minuto mula sa mga modular na sangkap.

Binuo sa MIT's Center for Bits and Atoms, ang platform ay nag-fuse ng natural-wika na pagproseso, 3D generative AI, at awtomatikong robotic assembly sa isang solong loop.Ang layunin: Lumiko araw -araw na pagsasalita sa paggawa ng geometry na maaaring agad na mabuo ng isang robot.Kasama sa mga maagang demonstrasyon ang mga dumi, istante, mga talahanayan ng gilid, upuan, at kahit na mapaglarong mga form tulad ng isang blocky figure figure.

Nagsisimula ang system sa pamamagitan ng pag -convert ng pasalitang input sa teksto at pag -parse ng hangarin sa pamamagitan ng isang malaking modelo ng wika.Ang isang modelo ng 3D generative pagkatapos ay output ng isang representasyon ng mesh ng inilarawan na bagay.Susunod, ang isang voxelization engine ay nabubulok ang mesh sa mga modular na yunit na maaaring pisikal na tipunin.A geometric-reasoning layer refes ang disenyo, pagpapatupad ng mga real-world na mga hadlang tulad ng mga landas ng pag-load, mga limitasyon ng overhang, bilang ng module, at pagkakakonekta.Sa wakas, ang isang algorithm ng pagpaplano ay tumutukoy sa isang pagkakasunud-sunod na pagkakasunud-sunod ng pagbangga at bumubuo ng mga landas ng paggalaw para sa isang tabletop robotic braso.

Ang buong pipelinefrom na sinasalita na utos upang makumpleto ang Objectcan ay tumagal sa ilalim ng limang minuto, na ginagawang kapansin -pansing mas mabilis kaysa sa pag -print ng 3D para sa mga katulad na kaliskis.Sinabi ng mga mananaliksik na ang sistema ay isang tagumpay sa pag -access din.Sa halip na malaman ang pagmomolde ng software o robotic scripting, ang mga gumagamit ay umaasa sa natural na pagsasalita.Dahil ang mga bagay ay itinayo mula sa mga magagamit na mga module, ang daloy ng trabaho ay nangangako din ng malapit-zero-basura na katha: ang isang dumi ay maaaring ma-disassembled at muling isama sa isang istante o lampara sa loob ng ilang minuto.


Plano ng koponan na palakasin ang kapasidad ng pag -load ng mga kasangkapan sa pamamagitan ng pagpapalit ng kasalukuyang mga magnetic connectors na may mas malakas na mekanikal na mga kasukasuan.Sinasaliksik din nila ang mga pipeline ng multi-robot na pagpupulong at mga mobile robot na may kakayahang magtayo ng mga malalaking istruktura gamit ang parehong balangkas na batay sa voxel.Ang mga paparating na bersyon ay maaaring pagsamahin ang boses sa pag-input ng kilos at pinalaki-realidad na patnubay, na mas malapit sa interface ang interface sa mga modelo ng pakikipag-ugnay ng "replicator" ng sci-fi.Sa huli, ang mga mananaliksik ay nakakaisip ng isang hinaharap kung saan ang mga pisikal na bagay ay bilang likido at muling mai -configure bilang mga digital na file, na nabuo at nabagong muli sa demand.