Hoof Innovasie Met Google AI kan gebruikers dadelik teks in 27 tale met telefoonkameras vertaal

Met Google AI kan gebruikers dadelik teks in 27 tale met telefoonkameras vertaal

Watter Film Om Te Sien?
 
(Gif: Google)

(Gif: Google)



Danksy kunsmatige intelligensie was reis na die buiteland nog nooit so eenvoudig nie.

Met die Google Translate-app kan gebruikers onmiddellik teks vertaal. In die app, rig u kamera net op die teks wat u wil vertaal, dan sien u dit regstreeks voor u oë in die gewenste taal verander - geen internetverbinding of selfoondata is nodig nie. Hierdie handige funksie is al 'n geruime tyd beskikbaar, maar dit was net versoenbaar met sewe tale. Nou , danksy masjienleer, het Google die app opgegradeer om onmiddellik 27 tale te vertaal.

Die volgende keer dat u in Praag is en nie 'n spyskaart kan lees nie, het ons u rug, skryf Otavio Good, sagteware-ingenieur by Google, oor die navorsing van die maatskappy. Blog .

Google het ook net AI gebruik om hul spraakherkenningsfoute in die helfte te verminder.

Van vandag af kan die volgende 20 tale ook in reële tyd vertaal word: Engels, Frans, Duits, Italiaans, Portugees, Russies en Spaans: Bulgaars, Katalaans, Kroaties, Tsjeggies, Deens, Nederlands, Filippyns, Fins, Hongaars, Indonesies, Litaus, Noors, Pools, Roemeens, Slowaaks, Sweeds, Turks en Oekraïens. En as u verkies om 'n foto te neem in plaas daarvan om die teks regstreeks te sien vertaal, word altesaam 37 tale ondersteun.

So, hoe kon Google die aantal beskikbare tale verhoog? Hulle het eers Word Lens aangeskaf, voorheen 'n augmented reality-vertaaltoepassing, en het masjienleer- en konvolusionele neurale netwerke gebruik om die app se vermoëns te verbeter. Die vooruitgang in beeldherkenning was die belangrikste.

As u 'n beeld van 'n kat of 'n hond aan 'n rekenaar gegee het, het hy vyf jaar gelede probleme ondervind om te bepaal watter een is. Danksy konvolusionele neurale netwerke kan rekenaars nie net die verskil tussen katte en honde sien nie, maar kan hulle selfs verskillende honde rasse herken, het mnr. Good gesê. Ja, hulle is goed vir meer as net trippy kuns —As u 'n vreemde menu vertaal of met die nuutste weergawe van Google se Translate-app teken, gebruik u nou 'n diep neurale netwerk.

Stap vir stap

Eerste , Translate moet die agtergrond se rommel uitroei en die teks opspoor. As dit vlekke van pixels van dieselfde kleur opspoor, bepaal dit dat dit letters is. En as daardie vlekke naby mekaar is, verstaan ​​dit dat dit 'n deurlopende lyn is om gelees te word.

Volgende, die app moet erken wat elke letter is. Dit is hier waar diep leer inkom.

Ons gebruik 'n konvolusionele neurale netwerk om dit op letters en nie-letters op te lei, sodat dit kan leer hoe verskillende letters lyk, lui die blogpos.

Die navorsers moes die sagteware oplei met nie net skoon letters nie, maar ook vuil. Briewe in die regte wêreld word beskadig deur weerkaatsings, vuilheid, vlekke en allerhande vreemdhede, het mnr. Good geskryf. Daarom het ons ons briefgenerator gebou om allerhande vals vuil te skep om die geraas van die regte wêreld oortuigend na te boots - vals weerkaatsings, vals vlekke, vals vreemdheid rondom. Sommige van die

Sommige van die vuil briewe wat vir opleiding gebruik word. (Foto: Google)








Die derde stap is om die erkende letters in 'n woordeboek op te soek om die vertalings te kry. En vir 'n ekstra poging tot akkuraatheid, is die soekwoorde van die woordeboek by benadering as 'n S verkeerd gelees word as 'n 5.

Laastens, die vertaalde teks word bo-op die oorspronklike weergawe in dieselfde styl weergegee.

Ons kan dit doen omdat ons die letters in die prent al gevind en gelees het, sodat ons presies weet waar dit is. Ons kan na die kleure rondom die letters kyk en dit gebruik om die oorspronklike letters uit te wis. En dan kan ons die vertaling bo-op teken met behulp van die oorspronklike voorgrondkleur, lui die blogpos.

Om so doeltreffend as moontlik te wees en al hierdie stappe in reële tyd te laat voltooi sonder 'n internet- of dataverbinding, het die Google-span 'n baie klein neurale net ontwikkel met 'n boonste grens aan die digtheid van inligting wat dit kan hanteer. Aangesien hulle hul eie opleidingsdata genereer het, was dit belangrik om die regte data in te sluit, maar niks ekstra nie, sodat die neurale netwerk nie te veel van sy inligtingsdigtheid op onbelangrike dinge gebruik nie. 'N Voorbeeld is hoe dit nodig is om 'n letter met 'n geringe omwenteling te herken, maar nie te veel nie.

Uiteindelik word gebruikers met nog 20 tale, maar dieselfde vinnige spoed gelaat.

SIEN OOK: Google se AI-span het ons die afname in hul masjienleer-navorsing gegee

Artikels Wat U Dalk Wil Hê :