Google gjennomførte et AI-arrangement med tittelen "Live From Paris" 8. februar 2023. På dette arrangementet kunngjorde senior Google-ansatte Googles fremskritt innen AI og hvordan verden kommer til å oppleve store endringer innen AI Søk, kart, kunst og kultur og reise.
Google feirer 25-årsjubileum i år. Denne begivenheten var den første begivenheten i året 2023, og det var noen få mangler vi har listet opp på slutten av denne artikkelen.
Hele 40-minutters begivenheten kan fortsatt sees på YouTube ved å klikke på denne lenken.
Eller
Bare les alt som er viktig på 4 minutter.
Hva kan vi forvente av Google i nær fremtid?
Google Bard
Google annonserte sin nye AI-chatbot-tjeneste kalt Bard, som allerede skaper krusninger i teknologibransjen. Den gir deg informative og relevante svar på dine henvendelser, Bard bruker LaMDA-teknologien (Language Model for Dialogue Applications). For øyeblikket produseres bare ett svar per spørsmål av apper som Bard og ChatGPT.
Google har uttalt at en "lett" variant av modellen blir gjort tilgjengelig i en tidlig testing fase før den blir fullstendig lansert. Testfasen av interne og eksterne testere har allerede begynt. Mange spørsmål kan ha flere mulige løsninger, derfor vil det nye Google-søket gi både konvensjonelle søkeresultater og AI ChatBot-lignende svar.
Google Translate
Over en milliard mennesker over hele verden bruker Google Translate på 133 språk. I den virkelige verden har fordrevne mennesker fra Ukraina funnet ut at denne appen er en livredder ettersom flyktningene flytter til mange forskjellige land over hele Europa. Google har nylig lagt til 33 nye språk (korsikansk, latin, jiddisk osv.) i frakoblet modus slik at brukere kan kommunisere uten internett.
Et stort nytt gjennombrudd i Google Translate-appen er at den snart vil gi flere betydninger for ord som er laget for å brukes med mer enn én kontekst. Denne funksjonen begynner med engelsk, tysk, fransk, japansk og spansk, og flere språk vil vise denne funksjonen snart. Ta for eksempel ordet "Innhold" kan brukes til å føle seg glad og beskrive materialet (tekst, video, lyd).
Lens Multisearch
Google-brukere kan sjekke hva som helst på internett ved å ta et bilde av det eller bruke et bilde f rom enhetens fotobank. Linsen brukes ti milliarder ganger hver måned, noe som signaliserer at visuelt søk har flyttet seg fra en nyhet til virkelighet. Brukere kan se etter spesifikke elementer i bilder eller videoer. Google Lens kan gjenkjenne strukturen ved å bruke muligheten til å slå opp en bygnings navn i en video. Denne nye Lens-funksjonaliteten vil bli gjort tilgjengelig i de kommende månedene.
En av hovedattraksjonene til arrangementet var Google Lens multisøk. Å bruke både tekst og et bilde for å søke etter noe er hovedideen. Du kan for eksempel ta et bilde av en skjorte og angi fargen du vil kjøpe den i. Denne funksjonen har blitt implementert av Google over hele verden.
Multisearch Near Me
Google demonstrerte også «multisøk i nærheten av meg», som lar deg se etter varer som et spesifikt måltid eller et spesifikt element i nærheten. Foreløpig er den bare tilgjengelig i USA. Android-brukere vil snart kunne bruke Google Lens til å gjøre tekst- og bildesøk uten noen gang å forlate gjeldende skjerm.
Immersive View
Immersive View, som ble designet kun for landemerker, blir nå gjort tilgjengelig i fem byer: London, Los Angeles, New York City, San Francisco og Tokyo. Brukere kan praktisk talt fly over bygninger for å inspisere innganger, trafikkmønstre og til og med travle områder. De kan få tilgang til Google Maps for å se veibeskrivelser og få enhetenes utvidede virkelighetspiler til å projisere veibeskrivelser til faktiske steder.
Brukere kan bruke tidsglidebryteren for å se hvordan en plassering vises på ulike steder. ganger. Brukere kan til og med se hvordan et sted vil se ut på forskjellige tider av dagen og under forskjellige værforhold, samt når det vil være mindre overfylt. Brukere av Immersive View kan til og med bruke applikasjonen til å se kafeer inne for å speide ut stedet før de besøker.
Brukere kan også få en følelse av hvordan en plassering inne ser ut med en Immersive View før de ankommer. Google gjør dette ved hjelp av neural radiance fields (NeRF), en AI-metode som lager en 3D-gjengitt scene av mange stillbilder tatt fra ulike perspektiver ved å kartlegge farger og lys. Gjennomganger som kan utforskes er laget ved hjelp av NeRF.
Interior Live View, en sammenlignbar AR-løsning for innendørsområder som flyplasser og kjøpesentre, ble også vist. Den lar brukere raskt finne gjenstander som bagasjekrav, nærmeste heis og matretter. Det blir introdusert til 1000 nye lokasjoner, inkludert kjøpesentre, togstasjoner og flyplasser.
ELB Charging Filter
Google lanserer også noen splitter nye verktøy for å støtte elbilsjåfører. For raske reiser vil Google Maps anbefale ladestasjoner, med et "veldig raskt" filter. Når du søker etter steder som hoteller eller supermarkeder, vil ladestasjoner også vises (hvis tilgjengelig). Disse funksjonene vil bli tilgjengelige for elbiler med integrert Google Maps.
Google Arts & Culture
Google har levert en oppdatering på Woolaroo, et AI-drevet foto- oversettelsesverktøy som ble introdusert i mai 2021. Målet er å gjenkjenne ting i bilder og gi brukerne navnene deres på mange truede språk.
Nå fokuserte det på å bruke instrumentet for å bevare kvinners bidrag til vitenskapen, blant annet. Kunst- og kulturteamet avdekket tidligere skjulte prestasjoner av kvinnelige forskere ved å bruke AI til å evaluere fotografier og historiske vitenskapelige poster.
Google brukte også AI-algoritmer for å analysere kjente kunstverk, noe som ga kundene en AR-opplevelse som gjorde at de kunne se kunstverket ned til siste penselstrøk med bare smarttelefonene sine.
Noe krydret: noen få mangler ved AI-arrangementet «Live From Paris» av Google
Alle foredragsholdere fomlet gjennom arrangementet.
Dette er kanskje ikke et viktig poeng for å bedømme suksessen til et arrangement, men alle foredragsholderne tilstede i ulike deler av arrangementene famlet gjennom hele arrangementet mens de snakket. Det så ut til at de ikke var klare for arrangementet, eller innholdet for arrangementet kan ha endret seg litt etter at Microsofts arrangement om Bing-integrasjon med ChatGPT ble holdt en dag før.
Google Bard Was Not The Arrangementets sentrum for attraksjonen.
De fleste av oss forventet at Google Bard skulle være hovedpunktet i diskusjonen, men overraskende nok var det ingen ny åpenbaring om Bard. Google hadde annonsert viss informasjon om Bard noen dager før dette arrangementet, og det samme ble gjentatt under arrangementet.
Testenheten ble borte.
Hvis Hvis du forventer at Google skal gjennomføre et arrangement, vil det sannsynligvis være feilfritt. Noen få mangler kan skje fordi ting ikke går slik du planlegger dem hver gang. Men en testenhet som ble borte viser mangel på forberedelse til arrangementet. Derfor gikk vi glipp av demonstrasjonen av multisøkefunksjonalitet . Sannsynligvis er det derfor det 40-minutters arrangementet rundet av på 38 minutter.
Google Bard er kanskje ikke nøyaktig til enhver tid.
AI ChatBot-teknologien er ganske ny, og vi kan forvente en viss grad av unøyaktigheter fra Google Bard og dets rivaler. Det er spesielt ett eksempel, der demoen publisert av Google om Bards svar til en 9-åring inneholder litt unøyaktig informasjon.
Nasa opplyser at det siste punktet er unøyaktig da de første bildene av en eksoplanet ble tatt av Hubble-romteleskopet. (Referanseartikkel)
Dine tanker om «Live From Paris» AI-arrangementet av Google
De nye prosjektene som er utført av Google viser seg interessante og mer attraktive enn Microsofts Bing-integrasjon med ChatGPT-arrangementet holdt i går. Vi må vente litt før vi kan bruke alle disse AI-drevne funksjonene og så selv observere hvordan AI vil gjøre livene våre bedre enn før.
Vennligst gi oss beskjed i kommentarene nedenfor hvis du har noen spørsmål eller anbefalinger. Vi vil gjerne gi deg en løsning. Vi publiserer ofte råd, triks og løsninger på vanlige teknologirelaterte problemer. Du kan også finne oss på Facebook, Twitter, YouTube, Instagram, Flipboard og Pinterest.
Les: 0