spot_img
13.1 C.
Londra
spot_img
AcasăAgent2AgentThe battle to AI-enable the web: NLweb and what enterprises need to...

Bătălia pentru activarea internetului prin inteligență artificială: NLweb și ce trebuie să știe întreprinderile

Abonează-te la newsletter-ele noastre zilnice și săptămânale pentru cele mai recente actualizări și conținut exclusiv despre tehnologiile inteligentei artificiale de top. Află mai multe


În prima generație a internetului, la sfârșitul anilor 1990, căutarea era acceptabilă, dar nu excelentă, și nu era ușor să găsești informații. Acest lucru a dus la apariția protocoalelor de sindicalizare la începutul anilor 2000, Atom și RSS (Really Simple Syndication) oferind o modalitate simplificată pentru proprietarii de site-uri web de a face titlurile și alte tipuri de conținut ușor accesibile și ușor de căutat.

În era modernă a inteligenței artificiale, apare un nou grup de protocoale care servesc aceluiași scop fundamental. De data aceasta, în loc să faciliteze găsirea site-urilor web pentru oameni, este vorba despre facilitarea accesului la site-uri web pentru inteligența artificială. Antropic's Protocolul de control al modelului (MCP)), Google's Agent2Agent și modelele lingvistice mari/ LLMs.txt se numără printre eforturile existente.

Cel mai nou protocol este inițiativa open-source NLWeb (web în limbaj natural) a Microsoft, care a fost anunțată în timpul conferinței Build 2025. NLWeb este, de asemenea, direct legat de prima generație de standarde de sindicalizare web, deoarece a fost conceput și creat de RV Guha, care a contribuit la crearea RSS, RDF (Resource Description Framework) și schema.org.

NLWeb permite site-urilor web să adauge cu ușurință interfețe conversaționale bazate pe inteligență artificială, transformând efectiv orice site web într-o aplicație bazată pe inteligență artificială unde utilizatorii pot interoga conținut folosind limbaj natural. NLWeb nu are neapărat scopul de a concura cu alte protocoale; mai degrabă, se bazează pe ele. Noul protocol utilizează formate de date structurate existente, cum ar fi RSS, iar fiecare instanță NLWeb funcționează ca un server MCP.

„Ideea din spatele NLWeb este că este o modalitate pentru oricine are deja un site web sau o interfață de programare (API) de a-și transforma foarte ușor site-ul web sau API-ul într-o aplicație agentică”, a declarat Kevin Scott, directorul tehnic Microsoft, în timpul discursului său principal Build 2025. „Poți să te gândești la asta puțin ca la HTML pentru web-ul agentic.”

Cum funcționează NLWeb pentru a activa inteligența artificială webul pentru companii

NLWeb transformă site-urile web în experiențe bazate pe inteligență artificială printr-un proces simplu care se bazează pe infrastructura web existentă, valorificând în același timp tehnologiile moderne de inteligență artificială.

Bazându-se pe datele existente: Sistemul începe prin a valorifica datele structurate pe care site-urile web le publică deja, inclusiv markup, fluxuri RSS și alte formate semi-structurate care sunt în mod obișnuit încorporate în paginile web. Aceasta înseamnă că editorii nu trebuie să își reconstruiască complet infrastructura de conținut.

Prelucrarea și stocarea datelor: NLWeb include instrumente pentru adăugarea acestor date structurate în baze de date vectoriale, ceea ce permite o căutare și o recuperare semantică eficientă. Sistemul acceptă toate opțiunile majore de baze de date vectoriale, permițând dezvoltatorilor să aleagă soluția care se potrivește cel mai bine cerințelor lor tehnice și scalării.

Strat de îmbunătățire a inteligenței artificiale: Apoi, LLM-urile îmbunătățesc aceste date stocate cu cunoștințe și context extern. De exemplu, atunci când un utilizator solicită informații despre restaurante, sistemul adaugă automat informații geografice, recenzii și informații conexe, combinând conținutul vectorizat cu capacitățile LLM pentru a oferi răspunsuri complete și inteligente, mai degrabă decât o simplă recuperare a datelor.

Crearea interfeței universale: Rezultatul este o interfață în limbaj natural care deservește atât utilizatorii umani, cât și agenții de inteligență artificială. Vizitatorii pot pune întrebări în limba engleză simplă și pot primi răspunsuri conversaționale, în timp ce sistemele de inteligență artificială pot accesa și interoga în mod programatic informațiile site-ului prin intermediul cadrului MCP.

Această abordare permite oricărui site web să participe la web-ul agentic emergent fără a necesita revizuiri tehnice ample. Face căutarea și interacțiunea bazate pe inteligență artificială la fel de accesibile ca crearea unei pagini web de bază în primele zile ale internetului.

Peisajul emergent al protocoalelor de inteligență artificială oferă numeroase opțiuni întreprinderilor

Există o mulțime de protocoale diferite care apar în spațiul inteligenței artificiale; nu toate fac același lucru.

Agent2Agent de la Google, de exemplu, se concentrează pe permiterea agenților să comunice între ei. Este vorba despre orchestrarea și comunicarea inteligenței artificiale agențice și nu se concentrează în mod special pe site-uri web existente sau conținut de inteligență artificială care să permită utilizarea inteligenței artificiale. Maria Gorskikh, fondatoare și CEO al AIA și un contribuitor la Proiectul NANDA echipă de la MIT, a explicat pentru VentureBeat că A2A de la Google permite transmiterea structurată a sarcinilor între agenți folosind scheme definite și modele de ciclu de viață. 

„Deși protocolul este open-source și agnostic față de model prin design, implementările și instrumentele sale actuale sunt strâns legate de stiva Gemini de la Google - ceea ce îl face mai degrabă un cadru de orchestrare backend decât o interfață de uz general pentru servicii bazate pe web”, a spus ea.

Un alt efort emergent este LLMs.txtScopul său este de a ajuta studenții LLM să acceseze mai bine conținutul web. Deși la prima vedere ar putea suna oarecum ca NLWeb, nu este același lucru.

„NLWeb nu concurează cu LLMs.txt; este mai degrabă comparabil cu instrumentele de extragere a informațiilor web care încearcă să deducă intenția de pe un site web”, a declarat pentru VentureBeat Michael Ni, vicepreședinte și analist principal la Constellation Research.

Krish Arvapally, cofondator și director tehnic al Dappier, a explicat pentru VentureBeat că LLMs.txt oferă un format în stil markdown cu permisiuni de antrenament care ajută crawlerele LLM să ingereze conținut în mod corespunzător. NLWeb se concentrează pe permiterea interacțiunilor în timp real direct pe site-ul web al unui editor. Dappier are propria platformă care preia automat fluxuri RSS și alte date structurate, apoi oferă interfețe conversaționale personalizate și integrabile. Editorii își pot distribui conținutul către piața lor de date.

MCP este celălalt protocol important și devine din ce în ce mai mult un standard de facto și un element fundamental al NLWeb. Fundamental, MCP este un standard deschis pentru conectarea sistemelor de inteligență artificială la sursele de date. Ni a explicat că, în opinia Microsoft, MCP este stratul de transport, unde, împreună, MCP și NLWeb furnizează HTML-ul și TCP/IP-ul web-ului agentic deschis.

Analistul senior Forrester, Will McKeon-White, vede o serie de avantaje pentru NLWeb față de alte opțiuni.

„Principalul avantaj al NLWeb este un control mai bun asupra modului în care sistemele de inteligență artificială «văd» elementele care alcătuiesc site-urile web, permițând o navigare mai bună și o înțelegere mai completă a instrumentelor”, a declarat McKeon-White pentru VentureBeat. „Acest lucru ar putea reduce atât erorile cauzate de sisteme care înțeleg greșit ceea ce văd pe site-uri web, cât și reelaborarea interfeței.”

Primii utilizatori văd deja promisiunea NLWeb pentru inteligența artificială agentială în întreprinderi

Microsoft nu a aruncat pur și simplu NLWeb peste zidul proverbial și nu a sperat că cineva îl va folosi. 

Microsoft are deja mai multe organizații care sunt implicate și utilizează NLWeb, inclusiv Chicago Public Media, Allrecipes, Eventbrite, Hearst (Delish), O'Reilly Media, Tripadvisor și Shopify.

Andrew Odewahn, director tehnic la O'Reilly Media, se numără printre primii care au adoptat tehnologia și vede perspective reale pentru NLWeb.

„NLWeb valorifică cele mai bune practici și standarde dezvoltate în ultimul deceniu pe web-ul deschis și le pune la dispoziția LLM-urilor”, a declarat Odewahn pentru VentureBeat. „Companiile au petrecut mult timp optimizând acest tip de metadate pentru SEO și alte scopuri de marketing, dar acum pot profita de această bogăție de date pentru a-și face propria inteligență artificială internă mai inteligentă și mai capabilă cu NLWeb.”

În opinia sa, NLWeb este valoros pentru întreprinderi, atât ca consumatori de informații publice, cât și ca editori de informații private. El a remarcat că aproape fiecare companie are eforturi de vânzări și marketing în cadrul cărora ar putea fi nevoită să se întrebe: „Ce face această companie?” sau „Despre ce este vorba în acest produs?”. 

„NLWeb oferă o modalitate excelentă de a deschide aceste informații către LLM-urile interne, astfel încât să nu fie nevoie să le căutați și să le căutați”, a spus Odewahn. „Ca editor, puteți adăuga propriile metadate folosind standardul schema.org și puteți utiliza NLWeb intern ca server MCP pentru a le face disponibile pentru uz intern.”

Utilizarea NLWeb nu este neapărat o sarcină dificilă. Odewahn a remarcat că multe organizații probabil utilizează deja multe dintre standardele pe care se bazează NLWeb. 

„Nu există niciun dezavantaj în a-l încerca acum, deoarece NLWeb poate rula în întregime în cadrul infrastructurii dumneavoastră”, a spus el. „Este un software open source care întâlnește cele mai bune caracteristici ale datelor open source, așa că nu aveți nimic de pierdut și aveți mult de câștigat încercându-l acum.”

Ar trebui companiile să se orienteze către NLWeb chiar acum sau să aștepte?

Analistul Michael Ni de la Constellation Research are o opinie oarecum pozitivă despre NLWeb. Totuși, asta nu înseamnă că întreprinderile trebuie să îl adopte imediat.

Ni a menționat că NLWeb se află în stadii foarte incipiente de maturitate, iar companiile ar trebui să aștepte 2-3 ani pentru o adoptare substanțială. El sugerează că firmele de vârf cu nevoi specifice, cum ar fi piețe active, pot încerca să facă proiecte pilot cu capacitatea de a se implica și de a contribui la modelarea standardului.

„Este o specificație vizionară cu un potențial clar, dar are nevoie de validarea ecosistemului, instrumente de implementare și integrări de referință înainte de a putea ajunge la proiectele pilot din întreprinderile obișnuite”, a spus Ni.

Alții au o perspectivă ceva mai agresivă asupra adopției. Gorskikh sugerează adoptarea unei abordări accelerate pentru a vă asigura că întreprinderea dumneavoastră nu rămâne în urmă.

„Dacă sunteți o întreprindere cu o suprafață mare de conținut, o bază de cunoștințe internă sau date structurate, testarea NLWeb acum este un pas inteligent și necesar pentru a rămâne în frunte”, a spus ea. „Nu este vorba de o perioadă de așteptare - este mai degrabă o adoptare timpurie a API-urilor sau a aplicațiilor mobile.”

Acestea fiind spuse, ea a menționat că industriile reglementate trebuie să acționeze cu prudență. Sectoare precum asigurările, sistemul bancar și cel medical ar trebui să amâne utilizarea în producție până când va exista un sistem neutru și descentralizat de verificare și descoperire. Există deja eforturi în fază incipientă care abordează acest lucru - cum ar fi proiectul NANDA de la MIT, la care participă Gorskikh, care construiește un sistem deschis și descentralizat de registru și reputație pentru serviciile agențice.

Ce înseamnă toate acestea pentru liderii din domeniul inteligenței artificiale în companii?

Pentru liderii din domeniul inteligenței artificiale la nivel de companie, NLWeb este un moment de cotitură și o tehnologie care nu ar trebui ignorată.

Inteligența artificială va interacționa cu site-ul dvs., iar dvs. trebuie să o activați prin intermediul inteligenței artificiale. NLWeb este o modalitate care va fi deosebit de atractivă pentru editori, la fel cum RSS a devenit o necesitate pentru toate site-urile web la începutul anilor 2000. În câțiva ani, utilizatorii se vor aștepta doar să fie acolo; se vor aștepta să poată căuta și găsi lucruri, în timp ce sistemele de inteligență artificială agentială vor trebui să poată accesa și ele conținutul. 

Aceasta este promisiunea NLWeb.

spot_img

cele mai recente articole

explorează mai mult

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dumneavoastră.

ro_RORomanian