Ich habe einen großen Datensatz von 400,00 Datensätzen in einer MySQL -Datenbank, auf die eine Java -API zu einem Hibernate -Repo zugegriffen wird. Es gibt eine automatische Komponente in der Material -Benutzeroberfläche, die gut für relativ kleine Datensätze im Speicher funktioniert. Das funktioniert nicht für 400K -Datensätze, da ich nicht so viel RAM habe.import javax.persistence.*;
import org.hibernate.annotations.Index;
@Entity
@Table(name = "users", indexes = {
@Index(name = "idx_email", columnList = "email"),
@Index(name = "idx_lastname_firstname", columnList = "lastName, firstName")
})
public class User {
@Id
@GeneratedValue(strategy = GenerationType.IDENTITY)
private Long id;
@Column(unique = true)
private String email;
private String firstName;
private String lastName;
// Add Getters and setters
}
< /code>
Das macht Abfragen schneller, aber RAM kann immer noch nicht alles halten. Ich nehme an, ich muss die Abfrage auf die ersten 100 Datensätze beschränken, die mit der Eingangsunterbrechung übereinstimmen und die AutoComplete -Liste durch diese Daten ersetzen. Ich habe das noch nicht ausprobiert, aber es wird wahrscheinlich zu langsam für eine gute Benutzererfahrung sein. Alle Beispiele, die ich bisher gegoogelt habe>
Wie kann ich 400.000 Elemente in einer Datenbank automatisch vervollständigen? ⇐ Java
-
- Similar Topics
- Replies
- Views
- Last post
-
-
Wie kann ich 400.000 Elemente in einer Datenbank automatisch vervollständigen?
by Anonymous » » in Java - 0 Replies
- 0 Views
-
Last post by Anonymous
-